Я помню статьи в «Персональном компьютерном мире», в которых была представлена версия ID3 для идентификации монет, хотя в ней использовалась эвристическая альтернатива формуле журнала. Я думаю, что это сводит к минимуму суммы квадратов, а не максимизирует энтропию - но это было давно. В байте (я думаю) была другая статья, в которой использовалась формула журнала для информации (а не для энтропии) для подобных вещей. Подобные вещи помогли мне справиться с теорией.
РЕДАКТИРОВАТЬ - под "не энтропией" я имею в виду, я думаю, что он использовал средневзвешенные значения информации, но не использовал имя "энтропии".
Я думаю, что построение простых деревьев решений из таблиц решений - очень хороший способ понять связь между вероятностью и информацией. Он делает связь между вероятностью и информацией более интуитивной и предоставляет примеры взвешенного среднего, чтобы проиллюстрировать максимизирующий энтропию эффект сбалансированных вероятностей. Очень хороший день - один урок.
И что также хорошо, вы можете затем заменить это дерево решений деревом декодирования Хаффмана (которое равно , в конце концов, деревом решений «какой токен я декодирую?») И сделать эту ссылку на кодирование.
Кстати - посмотрите по этой ссылке ...
У Маккея есть бесплатный загружаемый учебник (и доступный в печатном виде), и хотя я еще не все прочитал, прочитанные части показались мне очень хорошими. В частности, запомнилось объяснение «объяснения» в Байесе, начиная со страницы 293.
CiteSeerX - очень полезный ресурс для статей по теории информации (среди прочего). Два интересных документа ...
Хотя CN2, вероятно, не первый день материала.