Разработчик, с которым я работаю, разрабатывает программу, которая анализирует изображения дорожного покрытия, чтобы найти трещины в дорожном покрытии. Для каждого крэка, который находит его программа, он создает запись в файле, которая сообщает мне, какие пиксели составляют этот конкретный крэк. Однако с его программным обеспечением есть две проблемы:
1) Выдает несколько ложных срабатываний
2) Если он находит трещину, он находит ее только небольшие участки и обозначает эти участки как отдельные трещины.
Моя работа заключается в написании программного обеспечения, которое будет считывать эти данные, анализировать их и определять разницу между ложными срабатываниями и фактическими взломами. Мне также нужно определить, как сгруппировать все маленькие части трещины в один.
Я пробовал различные способы фильтрации данных, чтобы исключить ложные срабатывания, и с ограниченной степенью успеха использовал нейронные сети для группировки трещин. Я понимаю, что будет ошибка, но сейчас слишком много ошибок. Есть ли у кого-нибудь понимание специалиста, не относящегося к искусственному интеллекту, о том, как лучше всего выполнить мою задачу или узнать о ней больше? Какие книги я должен читать, или какие классы я должен брать?
РЕДАКТИРОВАТЬ Мой вопрос больше о том, как заметить закономерности в данных моего коллеги и идентифицировать эти узоры как настоящие трещины. Меня интересует логика более высокого уровня, а не логика низкого уровня.
РЕДАКТИРОВАТЬ В действительности, для получения точного представления данных, с которыми я работаю, потребуется по меньшей мере 20 образцов изображений. Это сильно варьируется. Но у меня есть образец здесь , здесь и здесь . Эти изображения уже были обработаны моим коллегой. Красные, синие и зеленые данные - это то, что я должен классифицировать (красный обозначает темную трещину, синий обозначает светлую трещину, а зеленый обозначает широкую / запечатанную трещину).