Это может быть немного открытым вопросом, но у меня была мысль, и я не уверен, может ли это быть на самом деле или уже было сделано.
Можно ли учить классификатор вживую?Например, скажем, у меня есть модуль, на этом модуле у меня есть две кнопки, одна для да, другая для нет.Модуль отображает изображение формы (или круг или квадрат для целей примера) и отображает, что он думает, это класс 1 "Круг" или класс 2 "Квадрат" (я предполагаю, что первоначальные предположения были бы чисто случайнымипоскольку у него еще нет предопределенного понимания круга или квадрата).Затем пользователь использует кнопки «да» и «нет», чтобы подтвердить или отклонить предположение, и модель учится на этом, таким образом изучая в режиме реального времени.
Как я уже сказал, я не уверен, возможно ли это или это уже было сделано.Если это возможно, как можно поступить об этом?Я только когда-либо использовал стандартные архитектуры нейронных сетей для сегментации изображений, так что мне нужно знать, чтобы приблизиться к этому?Буду также признателен за ссылки на ресурсы подобных концепций!
Спасибо!