Ознакомьтесь с Условиями пребывания на сайте Форнит Игнорирование означет безусловное согласие. СОГЛАСЕН
 
 
Если в статье оказались ошибки...
 

Проблемы восприятия программной реализации искусственного разума

Относится к   «Список теоретических статей»

Наблюдая бурный рост нейросетевых технологий, появление возможностей, о которых относительно недавно уверенно говорили, что это дело отдаленного будущего, возникает естественный вопрос: когда же наконец будет создан такой «интеллект», который практически не возможно будет отличить от человечьего. Проблему последствий внедрения такого девайса в нашу привычность рассматривали уже неоднократно, а вот проблему восприятия самого факта, что вот создали – берите, пользуйтесь, практически не касались. Видимо представляя, что тут и рассматривать нечего. Но так ли это?

Относится к разделу искусственный интеллект

Эта статья опубликована автором самостоятельно с помощью автопубликатора, отражает личное мнение автора и может не соответствовать мировоззренческой направленности сайта Fornit. Оценка публикации может даваться в виде голосования (значок качества) или обосновано в обсуждении. Ссылки на обе эти возможности есть внизу статьи.

История часто показывает, что новое далеко не всегда сходу подхватывается и тут же повсеместно внедряется, скорее наоборот, часто не замечается. Подтверждением тому послужили обсуждения на двух форумах, программистском и биологическом, что есть интеллект, разум, сознание. Как оказалось – мнений множество, многие прямо противоположные, что и дает повод предположить: появление искусственных разумных существ может оказаться не замеченным. В качестве провокации для обсуждения была предложена аннотация очередной версии программной реализации искусственного живого существа Beast.

Первое, с чем пришлось столкнуться – путаница между понятиями ИИ (искусственный интеллект) и ИР (искусственный разум). Они часто приравниваются, после чего указывают на нейросеть и приводятся примеры, когда 5-10-20 лет назад на вопрос, сможет ли нейросеть когда-нибудь сделать то-то и то-то, авторитетный эксперт говорил категоричное нет, а теперь нейросеть это делает запросто. Из чего делался вывод: логично тогда допустить, что через n-цать лет мощности компьютеров, «глубины обучения», IT-технологии достигнут такого уровня, что реагирования нейросети невозможно будет отличить от реакций человека, поэтому можно уже сейчас перестать обращать внимание на эту разницу.

Если отбросить все заумности, нейросеть занимается по большому счету прогнозированием наиболее подходящего варианта ответа (с точки зрения оператора) на внешний пусковой стимул на основе анализа массива данных, предоставляемых ей при обучении. И затем уже самостоятельно способна отличать без подсказки, например кошек от собак. В более сложных случаях можно учитывать обучение «в динамике», что создает впечатление, словно нейросеть способна догадываться, что последует за очередным стимулом. Она действительно догадывается, выявляя какие-то закономерности развития ситуации и строя прогнозы на их основе. И судя по всему, этот момент внушает оптимизм энтузиастам нейросетевых технологий, что однажды, при определенном развитии, она способна будет, как в известной телеигре, «угадать мелодию» всего по нескольким нотам. Что это, как не проявление разума, ведь никто ее не учил, что именно эти признаки означают такой то объект – она «сама догадалась».

Легко спутать отражение в зеркале с оригиналом, которого не видно. На этом построено множество фокусов, например с отрезанной головой на столе, когда при определенном ракурсе создается иллюзия, что голова действительно лежит отрезанной на блюде на маленьком столике с ножками – и под столом пусто. В данном случае нейросеть лишь отражает поведение (реакции) оператора, действует так, как поступил бы он на ее месте – она буквально отзеркаливает его модель поведения и ничего более. Если в качестве обучающих данных предоставить ей модель поведения множества людей, например в виде больших массивов сочиненных людьми текстов, она отразит их обобщенную модель поведения (культуру). Ее «мысли» всегда будут отражением чужих потому, что без самоощущения и способности оценивать результаты выполненных действий, нейросеть в принципе не способна ничего «измыслить», у нее нет собственного мнения. 

Многие разработчики нейросетей понимают, что нейросеть лишь отражение разума, но не придают этому особого значения потому, что если вопрос стоит: сделать чат-бот, способный вести диалоги, который человек сочтет осмысленными, и нейросеть это делает – что еще нужно? Есть ТЗ, надо сделать по нему – а что там в итоге вышло, ИИ или ИР, пусть философы разбираются.

Такой же подход видимо существует и среди спонсоров развития нейросетевых технологий. Зачем вкладываться в какие-то сомнительные философии, когда есть доказавшая состоятельность технология, бурно развивающаяся и дающая реальные гешефты? Кроме того, если как уверяют эти чудаки, настоящий, а не имитационный разум будет способен самостоятельно мыслить и принимать решения – зачем он такой красивый нужен? Робот, сделавший брак, потому что «задумался о чем-то своем», или того хуже, не желающий работать вообще, потому, что надоело – кто такое купит, зачем в это вкладываться?

Но наиболее интересными оказались дискуссии с теми, кто тоже занимается программной реализацией искусственного интеллекта в направлении, отличном от нейросетевых технологий. Не отрицая принципиальную возможность программной реализации, они относят ее на неопределенное будущее, когда появятся соответствующие технологии. И дело тут не только в недостатке производительности существующих машин.

Одна из распространенных на сегодняшний день теорий сознания – это теория функциональных систем П.К. Анохина, частичный разбор которой сделан по его статье Философский смысл проблемы естественного и искусственного интеллекта.

К этой теории чаще всего апеллировали, пытаясь доказать принципиальную несостоятельность Beast, как модель искусственного живого разумного существа.  Теория была впервые озвучена еще в 1939 году, сделав акцент на активную составляющую реагирования, когда действие завершается достижением целевого результата и его оценкой, в отличие от реактивного подхода, где за стимулом просто следует ответ. Согласно реактивностному подходу не может быть никакой активности без внешних стимулов, а согласно новому агент может реагировать для достижения субъективно поставленной цели, даже если не было никакого внешнего стимула.

Вот с понятием цели, прогностического реагирования и вышли споры. Утверждалось, что никакими алгоритмами в принципе не возможно организовать «системный нейрогенез», под которым подразумевалось создание принципиально нового реагирования. Должна быть некая надсистема, задающая тренд изменений (цель), что позволяет изменять реагирование с учетом будущих потребностей. При этом все попытки вывести такой тренд из предыдущего опыта некорректны потому, что… не корректны. Нужен принципиально другой подход. Возможно, стоит обратить внимание на квантовые запутанности и что то подобное.

Поначалу меня такой подход озадачил. Посмотрим, что собственно говорил П.К. Анохин:

Живая система существует как целое до тех пор, пока ее жизненно важные константы строго поддерживаются на определенном уровне. Но вот здесь-то и должно было возникнуть препятствие для сохранения жизни. Дело в том, что любая реакция животного или любой приспособительный эффект, с точки зрения теории вероятностей, есть одна из многих возможных вариаций одной и той же реакции. Эта рассеянность степеней свободы реакции, зависящая от особенностей многочисленных связей в центральной нервной системе, была бы одним из серьезных препятствий для развития совершенного приспособления животного к внешнему миру. Можно представить себе, что реакция животного А в зависимости от условий может иметь варианты в виде целой серии близких реакций — a1, а2, а3, an. Какая из них закрепится в структурах организма как наиболее полезная? Как организм оценит эту степень полезности данной реакции? Естественно, что без этой оценки полезности все приспособительное поведение животного превратилось бы в сплошной хаос.

И вот в процессе эволюции живых существ, вероятно, уже на очень ранней стадии развития, возникло универсальное приспособление в виде обратной сигнализации о полезности совершенного действия. Этим самым был достигнут тот уровень развития, при котором степени свободы каждой реакции (рассеянность реакции) значительно уменьшились, а организм получил возможность на основе этих обратных сигналов осуществлять непрерывную «подгонку» своего поведения вплоть до получения максимального полезного эффекта.

Здесь П. К. Анохин по сути говорит об определении жизни как самоподдерживающейся системы гомеостаза. В нашей модели живого существа Beast так и есть: жизненные параметры, критические уровни, сигнальные состояния Плохо/Норма/Хорошо. Что же показалось принципиально невозможным для программной реализации? Как я понял, постоянная апелляция к некой «надсистеме», без которой не возможно никакое прогностически-целевое реагирование. Но мне удалось найти только одну зацепку у П. К. Анохина, на основании которой можно ее ввести:

Микроэлектродный метод дает нам возможность установить, что некоторые нейроны, испытывая настоящее раздражение, включают накопленный в прошлом опыт и одновременно с этим формируют процессы, содержащие в себе качества того результата действия, который будет получен только в будущем. В нашей лаборатории эти нервные клетки мозга мы назвали «нейронами трех времен».

Некоторые нейроны… формируют процессы… качества результата действия, который будет получен в будущем… Неужели на таких туманных и неопределенных основаниях можно строить стратегию поиска таинственной надсистемы? Странное в этом подходе то, что прежде чем говорить о возможностях какой то выделенной системы имеет смысл определить ее свойства. Почему бы не попытаться гипотетически вскрыть этот черный ящик и посмотреть, что у него внутри - и только потом рассуждать, как и почему он функционирует именно так, как наблюдается. Например, если проанализировать рассуждения П. К. Анохина, приведенные в предыдущем цитируемом абзаце:

  • Живая система имеет жизненные параметры - сколько? Возможна ли система с одним параметром или обязательно нужно несколько?
  • Параметры имеют критические уровни - сколько? Температура, давление очевидно 2, определяющие диапазон стабилизации, энергия - 1, показывающая критический уровень заряда.
  • Возможны ли параметры с 3 и более критическими уровнями? Можно ли их рассматривать как связку обычных, одноуровневых параметров?
  • Жизненная система имеет сигнальную - какую? Сколько нужно сигналов, какого рода, чтобы система могла на них ориентироваться при адаптации?
  • Если жизненных параметров несколько - как они стабилизируются? Все сразу или поочередно? Если второе - как определяется очередность?
  • Жизненные параметры независимы друг от друга или взаимно влияют? Стабилизация одного параметра влияет процесс стабилизации/дестабилизации другого?
  • Жизненные параметры однозначимы или у каждого своя значимость?

Все эти вопросы нужно рассмотреть прежде, чем рассуждать о способности системы к каким то эффектам, например предсказанию потому, что эти эффекты очевидно вытекают из озвученных свойств. Это ограничит фантазирование и поможет понять природу эффекта. Странно, что П. К. Анохин этого не сделал, хотя это очевидно просится сделать в первую очередь. В итоге это спровоцировало фантазии о наличии некой надсистемы и соответственно невозможности программной реализации искусственного живого существа, пока не будет создан например квантовый компьютер или что то подобное заумное.

Предложенный в 1950 году тест Тьюринга впервые был уверенно пройден в 2001, и далее многократно подтвержден. В данный момент есть несколько вариантов тестирования машины на интеллект, но все они по сути являются развитием теста Тьюринга, добавляя к нему например способности машин определять взаимосвязи между событиями, эмоционально реагировать и т. п. При этом интеллект по прежнему определяется как совокупность внешне наблюдаемых признаков, что лишь отодвигает планку, которую машины однажды неизбежно перепрыгнут. Чтобы однозначно определить наличие или отсутствие интеллекта, нужно отталкиваться от механизмов, его обеспечивающих. При проектировании Beast под интеллектом подразумевалось следующее:

Интеллект – база моторных и ментальных автоматизмов высокой степени уверенности, и потому выполняемых без осмысления. Формируется при помощи интеллектуальных функций, выдающих вариант решения, чтобы затем использовать его как пробный, при прогнозировании последствий предполагаемых действий, через субъективную оценку «станет Лучше» или «станет Хуже». Успешно выполненный пробный вариант действий добавляется в базу автоматизмов.

Разум – способность использовать механизмы творчества.

Нейросеть можно назвать реализацией искусственного интеллекта, где вместо субъективной оценки правильности решения самой нейросети, используется субъективная оценка оператора. Он неотъемлемая часть такой интеллектуальной системы, без которой она не способна обучаться в стадии формирования своих интеллектуальных навыков.

А вот механизмы творчества нейросети принципиально не доступны по той же причине, почему ученику, обучившемуся нотной грамоте и игре на музыкальном инструменте не доступна импровизация кроме тех приемов, которым его научили. Необходима внутренняя самооценка, самоощущения правильности/не правильности, иначе получится не творчество, а ремесло. При этом принципиально не важно, каким образом будет получен новый вариант: подсмотрен у других, или сгенерен случайно. Важно, как он переварится внутри, как субъективно оценится, трансформируется, сопоставится с прежним опытом.

В итоге получается: одни не видят разницы между ИИ и ИР, и потому не увидят ИР, когда он появится, для них это будет просто очередная версия нейросети. Другие видят, понимают – но безразличны потому, что это для их работы, бизнеса не имеет никакого значения. Они тоже не увидят ИР, точнее не обратят на него особого внимания, что по сути равноценно. Третьи, понимая ИР как систему способную самостоятельно ставить себе субъективные цели, зачем то вводят непонятные сложности с их определением, которые лишь напускают тумана и откладывают практическую реализацию на отдаленную перспективу. В этом случае любые попытки продемонстрировать практическую схему реализации прототипа натолкнутся на стену неприятия: это невозможно потому, что невозможно на современном техническом уровне.

Иногда варианты такого подхода выглядят даже забавно. Например, на био-форуме меня пытались убедить, что одного оператора не достаточно для представления в его лице всего внешнего мира Beast, нужно больше стимулов. Например, прицепиться к сводке Яндекс-Погоды, и пусть они являются множеством не хаотичных раздражителей, провоцирующих гомеостаз Beast на реакции. Но все попытки уточнить, сколько конкретно нужно показателей сводки, или например, сколько и каких нужно вывесить датчиков в окно, считывающих температуру, влажность, силу ветра и т. п. – чтобы гомеостаз Beast стал «настоящим», остались без ответа, сведя по сути обсуждение к тому, сколько орехов считается кучей.

Несмотря на безуспешность попыток продемонстрировать пример практической реализации прототипа искусственного живого существа, опыт такого массового обсуждения оказался полезен в том смысле, что показал текущую ситуацию с восприятием проблемы создания ИР: экономически не выгодно, практически не целесообразно. И это если не касаться общих проблем академической науки.

 

Вот причины неприятия: Идиоты и элиты (закон 95%)



Автор Palarm
Список произведений >>
Список публикаций >>

Обсуждение Еще не было обсуждений.


Дата публикации: 2023-02-06

Оценить статью можно после того, как в обсуждении будет хотя бы одно сообщение.
Об авторе: Статьи на сайте Форнит активно защищаются от безусловной веры в их истинность, и авторитетность автора не должна оказывать влияния на понимание сути. Если читатель затрудняется сам с определением корректности приводимых доводов, то у него есть возможность задать вопросы в обсуждении или в теме на форуме. Про авторство статей >>.

Тест: А не зомбируют ли меня?     Тест: Определение веса ненаучности

В предметном указателе: Поиск смысла жизни | Проблема смысла жизни | Актуальные проблемы космологии | Актуальные проблемы обеспечения доступа к информации | К проблеме вычислимости функции сознания Е.М.Иванов | Кавитационные и вихревые теплогенераторы. Проблема измерения кпд. Свободная энергия. Современный вечный двигатель. Perpetuum Molibe | Восприятие | Восприятие информации | Зрительное восприятие | Индивидуальность восприятия кр... | Особенности восприятия | Восприятие времени в космическом пространстве | Восприятие пространства и времени | Восприятие художественного творчества | Главное о программной модели механизмов адаптивности живого существа | Реализация моделей живых существ | Реализация моделей живых существ: действующий прототип | Совершенствуем природную реализацию принципа адаптивного поведения | Онлайн тренинги личностного роста, самореализации, позитивного мышления, личной эффективности | Программирование и реализация отдалённой поведенческой цели | Программирование и реализация отдалённой поведенческой цели (2-й вариант) | Программирование и реализация отдалённой поведенческой цели (2-й вариант) | Алгоритмы распознавания | Интеллект | Интеллектуальные механизмы | Искусственный интеллект | Психика сознание | Психика человека | Психические процессы | Психические центры | Структура психики | Формирование мышления | Безусловная вера | божестевенный акт творения | Виртуальные шаблоны понятий | Голографический принцип | Как найти смысл жизни | Космический разум | Непознаваемое | О мистике, ее сути и свойствах | Организация памяти
Последняя из новостей: Схемотехника адаптивных систем - Путь решения проблемы сознания.

Создан синаптический коммутатор с автономной памятью и низким потреблением
Ученые Северо-Западного университета, Бостонского колледжа и Массачусетского технологического института создали новый синаптический транзистор, который имитирует работу синапсов в человеческом мозге.

Тематическая статья: Целевая мотивация

Рецензия: Статья П.К.Анохина ФИЛОСОФСКИЙ СМЫСЛ ПРОБЛЕМЫ ЕСТЕСТВЕННОГО И ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
 посетителейзаходов
сегодня:00
вчера:00
Всего:48322

Авторские права сайта Fornit