↑
Всем привет..,
Собственно вопрос, через программы или может быть есть Онлайн сервис -что конечно же удобней было бы для меня
Пример есть хеши:
05703552841fe4f579d1c75bd4b8d8a1
2363f2308fe82cbaf3240141003462e1
ef0de5525ec9d0a8679525f1753fea00
05703552841fe4f579d1c75bd4b8d8a1
Представим список большой как удалить из этих строк "05703552841fe4f579d1c75bd4b8d8a1" вместе с оригиналом что бы получить на выходе:
2363f2308fe82cbaf3240141003462e1
ef0de5525ec9d0a8679525f1753fea00
Любой текстовый редактор -> заменить 'hash' на ' '
Если удалять списком то можно как то так:
Код:
#!/usr/bin/env python
al = []
fi = []
with open('откуда удаляем.txt') as f:
al = f.read().splitlines()
with open('что удаляем.txt') as f:
fi = f.read().splitlines()
ss = set(al) - set(fi)
print ss
↑
TextUtils by Lays
Присутствует удаление дубликатов.
я так понял ему не удаление надо дубликатов,а удаление из списка другово списка с удалением дубликатов. А то так ULM вне конкуренции http://unifiedlm.com/Home
↑
я так понял ему не удаление надо дубликатов,а удаление из списка другово списка с удалением дубликатов. А то так ULM вне конкуренции http://unifiedlm.com/Home
согласен, CLI версия
пример сравнения 2ух баз по 300 метров каждая. Сравнение и удаление строк которые присутствуют в сравниваемой базе.
2 базы по 300метров (600мб в сумме) - за 12 сек управилось.
Спокойно берет и 28 гб файлики. Наверно, из софта выше, только textpipe сможет также, но примерно за месяц...