Относится к сборнику статей телеграм-канала https://t.me/thinking_cycles
К 2030 году, как обещают разработчики, будет создан сильный искусственный
интеллект AGI (Artificial General Intelligence), который в отличие от
сегодняшнего слабого AI (Artificial Intelligence) будет способен решать задачи
не хуже человека. При этом, судя по всему, будут использованы все те же
технологии глубокого обучения, только на еще больших объемах данных и
соответственно больших затратах. При этом каверзный вопрос: неужели
человеческому детенышу тоже нужно влить в голову сумасшедшее кол-во информации,
чтобы научиться отличать кошку от мышки? Конечно же нет, он ее отличает
достаточно быстро и уверенно без тысяч обучающих демонстраций в разных
ракурсах. Может разработчики надеются создать настолько прогрессивный алгоритм
обучения, что он тоже так сможет? Может быть. Но это все равно не будет
искусственный разум, а всего лишь очередная имитация, еще более реалистичная.
Существующие модели интеллектуальных агентов не дотягивают даже до первого
уровня мышления прототипа Beast, несмотря на всю свою впечатляющую крутизну.
Это всего лишь алгоритм обобщения правил реагирования, только чрезмерно
перекачанный. В модели Beast решение выполнять или блокировать корректирующее
действие определяется уже на самых ранних стадиях развития психики, где
маркером служит базовое гомеостатическое состояние: Плохо, Норма или Хорошо.
Оно доступно уже на втором, бездумном уровне реагирования, когда начинают
формироваться базовые автоматизмы методом отзеркаливания, но еще нет
эпизодической памяти, нет правил реагирования, а потому нет и мышления,
функциональность которого –
нахождение нового действия, альтернативного привычному. Для этого на основе правил
строятся прогнозы последствий еще не совершенных действий в разной степени глубины
ассоциаций.
Чтобы текущие модели ИИ получили возможность произвольного выбора, без которого
не возможно творчество, у них должна быть внутренняя система оценки своего состояния,
которую можно построить только на основе системы гомеостаза. А это в свою очередь
означает, что машину, и даже программу, нужно оживить, причем в буквальном
смысле, а не аллегорическом. Живое от неживого отличается наличием системы гомеостаза и такая модель была верифицирована в прототипе
Beast и соответствующей публикации в
журнале ВАК.
К сожалению, тему гомеостатических агентов мало кто разрабатывает, уже
высказывал предположения почему. Хотя есть исключения, но там дальше
теоретических разработок и общих рекомендаций дело не движется, хотя копают
Алексей
5 July 2024