Действительно ли нечеткая логика улучшает простые алгоритмы машинного обучения? - PullRequest
3 голосов
/ 09 декабря 2010

Я читаю о нечеткой логике и просто не понимаю, как это могло бы улучшить алгоритмы машинного обучения в большинстве случаев (к которым, по-видимому, это применяется относительно часто).

Взять, к примеру, k ближайших соседей. Если у вас есть куча атрибутов, таких как color: [red,blue,green,orange], temperature: [real number], shape: [round, square, triangle], вы не можете по-настоящему распутать ни один из них, кроме реального пронумерованного атрибута (пожалуйста, исправьте меня, если я ошибаюсь), и я не вижу, как это можно улучшить что-то большее, чем просто складывать вещи вместе.

Как можно использовать машинную нечеткую логику для улучшения машинного обучения? В большинстве случаев примеры игрушек, которые вы найдете на большинстве веб-сайтов, кажутся не совсем подходящими.

Ответы [ 6 ]

6 голосов
/ 29 декабря 2010

Нечеткая логика рекомендуется, когда переменные имеют естественную интерпретацию формы. Например, [очень мало, мало, много, очень много] имеют хорошую перекрывающуюся трапециевидную интерпретацию значений.

Переменные, подобные цвету, могут и не быть. Нечеткие переменные обозначают степень принадлежности, и тогда они становятся полезными.

Что касается машинного обучения, это зависит от того, на какой стадии алгоритма вы хотите применить нечеткую логику. По моему мнению, было бы лучше применить его после того, как кластеры найдены (с использованием традиционных методов обучения), для определения степени принадлежности определенной точки в пространстве поиска в каждом кластере, но это не улучшает процесс обучения, а классификацию после обучения.

0 голосов
/ 15 марта 2015

Разве нельзя просто преобразовать дискретные множества в непрерывные и получить те же эффекты, что и размытость, при этом используя все методы теории вероятностей?

Например, размер ['small', 'medium', 'big'] ==> [0,1]

0 голосов
/ 08 мая 2013

слишком сильно вас раздражает, принудительно добавляет к этому нечеткость . если вместо атрибута "shape", у вас есть атрибут "количество сторон" , который будет разделен на "less", "medium", "many" и "uncountable" . квадрат мог бы быть частью «меньше» и «среднего», учитывая соответствующую функцию членства. вместо атрибута «color», если у вас есть «red» атрибут , то с помощью кода RGB можно было бы создать функцию членства. так что, как показывает мой опыт в области интеллектуального анализа данных, каждый метод может применяться к каждому набору данных, что работает, работает.

0 голосов
/ 02 июня 2011

На мой взгляд, нечеткая логика не является практически жизнеспособным подходом ни к чему, если только вы не строите нечеткий контроллер целевой сборки или некоторую структуру, основанную на правилах, например, для соответствия / политики. Хотя нечеткость подразумевает взаимодействие со всем между 0 и 1. Включая, я считаю, что это несколько некорректно, когда вы подходите к более сложным задачам, где вам нужно применять аспекты нечеткой логики в трехмерном пространстве. Вы все еще можете приблизиться к многомерному, не обращая внимания на нечеткую логику. К сожалению, для меня, изучив нечеткую логику, я обнаружил, что не согласен с принципами, применяемыми в нечетких множествах в больших размерных пространствах, это кажется невозможным, непрактичным и не очень логичным. База естественного языка, которую вы будете применять в своем решении нечетких множеств, также будет очень сложной, что именно [очень, мало, много] это все, что вы определяете в своем приложении. Многое из аспектов машинного обучения вы обнаружите, что вам даже не нужно заходить так далеко, чтобы встроить основы естественного языка в вашу модель. Фактически, вы обнаружите, что можете достичь еще лучших результатов без необходимости применять нечеткую логику к любому аспекту вашей модели.

0 голосов
/ 21 января 2011

[круг, квадрат, треугольник] - это в основном идеальные категории, которые существуют в основном в геометрии (то есть в теории). В реальном мире некоторые формы могут быть почти квадратными или более или менее круглыми (круглая форма). Есть много нюансов красного цвета, и некоторые цвета ближе к другим (например, попросите женщину объяснить бирюзу). Следовательно, также абстрактные категории и некоторые конкретные значения полезны в качестве ссылок, в реальном мире объекты или значения не обязательно равны этим.

Нечеткое членство позволяет вам измерить, насколько далеко некоторые конкретные объекты от некоторого идеала. Использование этой меры позволяет избежать «нет, это не круговая» (что может привести к потере информации) и использовать меру, что данный объект (не) круговой

0 голосов
/ 20 января 2011

Мне не ясно, чего вы пытаетесь достичь в приведенном вами примере (формы, цвета и т. Д.).Нечеткая логика успешно использовалась в машинном обучении, но лично я думаю, что она, вероятно, чаще полезна при построении политик.Вместо того, чтобы продолжать об этом, я отсылаю вас к статье, которую я опубликовал в выпуске журнала «PC AI» за март / апрель 2002 г.Работа: Введение в нечеткие правила

...