Бухлотеории #2 - РБС РАВСЗ, нормализация, энергия сети и вечный цикл

23 Dec 2018

Рекуррентная байесовская вероятностная сеть с задержками.

Почему вышеописанное название — ложь

  • Байесовская сеть должна быть ациклическим направленным графом. Тут граф циклический.

  • С другой стороны, Марковская цепь - это цепь переходов, это вообще не в ту степь для нас

  • Но сложение вероятностей — штука из Баесовской сети.

  • Почему реккурентная? Да потому что в ней все связи так или иначе входят в какие-то циклы.

  • Почему с задержками? Потому что они таки есть.

Реккурентная автогенеративная вероятностная сеть с задержками: РАВСЗ

Или единственно подходящее название

  • Реккурентная — потому что ее граф весь циклический.

  • Автогенеративная — потому что постоянно генерирует (псевдо)случайные последовательности (aka мысли)

  • Вероятностная — потому что жесткие логические связи отсутствуют, следующий элемент всегда тот, чья сумма вероятностей выше.

  • С задержками — потому что обучается она на последовательностях и эти самые последовательности кодируются с помощью описания задержки передачи в N обработанных "символов".


суть такова... можно грабить корованы

Входом сети являются импульсы возбуждения подаваемые на элементы по одному импульсу на найденный во входной последовательности элемент за такт сети. Последовательность начинается токеном QSTART и заканчивается QEND. Выходом сети является последовательность сработавших элементов (если сработали несколько берется тот, у кого энергия максимальна) начинающаяся с токена ASTART и заканчивающаяся AEND. Все что срабатывает в сети вне этих пределов декодер не интересует. Тип и технология токенизатора не важны, можно нейросети, пожно просто какой-то векторно-дистантный алгоритм. Декодер должен обеспечивать нормализацию языка и всеми силами пытаться в грамматику.