Относится к сборнику статей теори МВАП https://t.me/thinking_cycles
Не смотря на прогнозы о
Используя генеративную модель ИИ, лежащую в основе больших языковых моделей, таких как GPT-4 , команда разработала две новые метрики, которые позволяют проверить модель мира трансформера. Исследователи сосредоточили свои оценки на классе задач, называемых детерминированными конечными автоматами, или DFA.
DFA — это задача с последовательностью состояний, например, перекрёстков, которые нужно проехать, чтобы добраться до пункта назначения, и конкретным способом описания правил, которым нужно следовать на пути. В качестве задачи для формулирования в виде DFA были выбраны передвижение по улицам Нью-Йорка и игра в настольную игру «Отелло».
В итоге выяснилось, что несмотря на то, что трансформеры почти во всех случаях генерировали точные направления и правильные ходы в «Отелло», две метрики показали, что только один из них генерировал согласованную модель мира для ходов в «Отелло», и ни один из них не справился с формированием согласованных моделей мира в примере с поиском пути. К чему это может привести стало очевидно, когда на карту Нью-Йорка добавили объездные пути:
«Я был удивлён тем, как быстро ухудшились показатели, как только мы добавили объезд. Если мы закроем всего 1% возможных улиц, точность сразу же упадёт почти со 100% до 67%», — говорит Вафа.
Еще большее удивление вызвали карты города, составляемые моделями для «внутреннего пользования» с сотнями пересекающихся улиц, случайными эстакадами или даже улиц с невозможной ориентацией.
С позиции
Но все мы из личного опыта знаем, что это самый неэффективный способ обучения, гарантированно набивающий лишь множество шишек. Вместо того, чтобы углублять предварительный анализ одного акта действия, затрачивая при этом возрастающие в геометрической прогрессии ресурсы, природа пошла более эффективным путем, который действительно позволяет бесконечно погружаться в проблему и находить решение без обработки гигантских массивов данных, а только выбранной части. Что мы делаем, когда не знаем что делать? Спрашиваем, смотрим, пробуем - переводим решение проблемы в статус пролонгированной, делаем циклические запросы к реальности в надежде, что что то подскажет, подтолкнет мысль в нужном направлении. Вся воспринимаемая реальность, а не только личный опыт, становятся "базой данных", к которой делаются запросы, поэтому и не нужно утрамбовывать в своей голове терабайты информации. Воспринимая реальность в разных текущих контекстах, мы как бы смотрим в целевых циклических запросах к ней на бесконечный массив возможных решений через "контекстную призму", поворачивая ее так и эдак, пока не "увидим" подходящее: камень катится с горы... Опа! Так вот как надо перемещать большие грузы! Вот и весь секрет "самостоятельного поиска нового решения", над которым бьются разработчики ИИ, без малейшего шанса найти решение. Потому, что застряли на одном механизме анализа опыта, вырванном из общей иерархии механизмов адаптивности.
Моделирование ИИ в действительности это моделирование ИЖС (искусственного живого существа). Не получится создать искусственный интеллект, способный самостоятельно мыслить, оторванный от «оболочки», потребности которой он должен удовлетворять потому, что только отсюда и вырастает "самостоятельность". И не важно, в каком виде будет «тело»: биологическое, механическое, программное. Должен быть живой организм с системой гомеостаза, адаптирующийся к изменениям внешней по отношению к нему среды, выводящими его систему гомеостаза из оптимального состояния – тогда возникает потребность поддерживать ее в оптимуме, иначе смерть. И только тогда можно наворачивать на нее искусственной эволюцией адаптивные корректирующие действия вплоть до высшей психической деятельности.
Из за того, что в архитектуре нейросетей не предусмотрены ориентировочный рефлекс, значимость, субъективность, контекст восприятия/реагирования - не получается и построить модель понимания, только математика в сухом остатке и вынужденное бесконечное углубление во все более "глубокие обучения".
Алексей
09 Nov 2024