linux去重的方法
吾爱主题
阅读:171
2024-04-05 15:09:10
评论:0
多种linux文本去重方法
1.awk用法:
awk去重法【1】
# 查看两个文本的第一列,然后排序去重显示出现第一次的
awk '{print $0}' file1 file2 | sort | uniq -u > new_file
awk去重法【2】
# 单个文件去重方法(去重后不会打乱顺序和排序)
awk '!x[$0]++' file1 > new_file
awk去重法【3】
# 查找文件行中唯一行(注:处理文本中只有一列的)
awk '{print $0}' ./filename.txt | sort | uniq -d > new_filename.txt
2.sort 用法:
sort去重法【1】
# 查找文件行中值重复的行(用于单个文件)
sort ./filename.txt | uniq -d new_filename.txt
sort去重法【2】(用于多个文件一次性去重)
# 使用cat 配合去重(用于多个文件一次性去重)
cat ./*_filename.txt | uniq -d > new_filename.txt
sort去重法【3】(查找非重复行)
# 查找非重复行
sort filename.txt | uniq -u > new_filename.txt
sort去重法【4】(统计字符出现次数)
# 统计字符出现次数
sort filename.txt | uniq -c
3.grep 用法
grep去重法【1】
# 对比两个文件去重后生成新文件
grep -vFf file1 file2 > new_filename.txt
grep去重法【2】
# 从b中剔除a中有的 去重
grep -v -f file1 file2 > new_filename.txt
另推荐一款在线去重工具
在线文本去重复工具:https://www.huudi.com/tools/quchong.html
在线去重复工具:https://www.huudi.com/tools/txtquchong.html
到此这篇关于linux去重的方法的文章就介绍到这了,更多相关内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文地址:https://blog.csdn.net/LySunflower/article/details/127985765
声明
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。