linux去重的方法

吾爱主题 阅读:147 2024-04-05 15:09:10 评论:0

多种linux文本去重方法

1.awk用法:

awk去重法【1】

# 查看两个文本的第一列,然后排序去重显示出现第一次的
awk '{print $0}' file1 file2 | sort | uniq -u > new_file  

awk去重法【2】

# 单个文件去重方法(去重后不会打乱顺序和排序)
awk '!x[$0]++'  file1 > new_file 

awk去重法【3】

# 查找文件行中唯一行(注:处理文本中只有一列的)
awk '{print $0}' ./filename.txt | sort | uniq -d  > new_filename.txt

2.sort 用法:

sort去重法【1】

 # 查找文件行中值重复的行(用于单个文件)
sort ./filename.txt  | uniq -d  new_filename.txt

sort去重法【2】(用于多个文件一次性去重)

# 使用cat 配合去重(用于多个文件一次性去重)
cat ./*_filename.txt | uniq -d  > new_filename.txt

sort去重法【3】(查找非重复行)

# 查找非重复行
sort filename.txt | uniq -u  > new_filename.txt

sort去重法【4】(统计字符出现次数)

# 统计字符出现次数
sort filename.txt | uniq -c

3.grep 用法

grep去重法【1】

# 对比两个文件去重后生成新文件
grep -vFf file1 file2 > new_filename.txt

grep去重法【2】

# 从b中剔除a中有的 去重
 grep -v -f  file1 file2 > new_filename.txt

另推荐一款在线去重工具

在线文本去重复工具:https://www.huudi.com/tools/quchong.html

在线去重复工具:https://www.huudi.com/tools/txtquchong.html

到此这篇关于linux去重的方法的文章就介绍到这了,更多相关内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!

原文地址:https://blog.csdn.net/LySunflower/article/details/127985765

可以去百度分享获取分享代码输入这里。
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

【腾讯云】云服务器产品特惠热卖中
搜索
标签列表
    关注我们

    了解等多精彩内容