Мне нужно получить уникальные URL-адреса из веб-журнала, а затем отсортировать их. Я думал об использовании команд grep, uniq, sort и вывод их в другой файл
Я выполнил эту команду:
cat access.log | awk '{print $7}' > url.txt
тогда только получите уникальный и отсортируйте их:
cat url.txt | uniq | sort > urls.txt
Проблема в том, что я вижу дубликаты, даже если файл отсортирован, что означает, что моя команда сработала. Почему?