В серии статей предполагается обсудить проблему самосовершенствующегося ИИ и связанного с этим будущего человечества
Относится к разделу искусственный интеллект
Эта статья опубликована автором самостоятельно с помощью автопубликатора, отражает личное мнение автора и может не соответствовать мировоззренческой направленности сайта Fornit. Оценка публикации может даваться в виде голосования (значок качества) или обосновано в обсуждении. Ссылки на обе эти возможности есть внизу статьи.
Итак, продолжаем обсуждение статьи Сергея. Одна из его претензий к современным системам ИИ заключается в их неспособности вести диалог с человеком на естественном для него (человека) уровне - "... диалог (с ИИ) по прежнему - общение с механическим болванчиком". Эту фразу, пожалуй, можно понимать двояко. Во-первых, как заметную формализованность диалога и неспособность поддерживать осмысленный разговор на темы, отличающиеся от предмета обсуждения, на который "заточен" ИИ. Если мы говорим о "сильном" ИИ, то это действительно его слабое место. Если же мы подразумеваем "слабый" (узкоспециализированный) ИИ, то таковое требование, на мой взгляд, излишне. Действительно, мы же не требуем, например, у сотрудницы банка, в котором мы хотим взять кредит, что бы она поболтала с нами о поэзии Бродского, или объяснила, как доехать от Ленинградского вокзала до Кремля. Вообще, стоит отметить, что многие почему-то считают, что ИИ обязательно должен проявлять признаки обладающего (само)сознанием объекта. Между тем, интеллект, и осознающий себя объект, это, на мой взгляд, далеко не одно и то же, в следующих главах я постараюсь обсудить этот вопрос более подробно. Альтернативное толкование указанной фразы может заключаться в том, что ИИ всегда даёт один и те же ответ на один и те же вопрос, даже если стало известно, что он неправильный, примерно как устаревшая статья в энциклопедии. В таком варианте с жалобой Сергея я не могу согласиться, системы ИИ уже достаточно давно получили способность к самообучению, например, тот же AlphaZero регулярно переконфигурирует связи в свой нейросети, так что, если какой-то его неудачный ход в предыдущей шахматной партии в итоге привёл к поражению, то в следующий раз в той же позиции он уже не будет его повторять, а сделает какой-то другой ход.
Наконец, рассмотрим ещё один тезис статьи.
...АльфаГо - это все та же "машина из спичечных коробков", только сделанная несколько иначе, потому что для игры в Го нужно слишком много коробков и спичек. (Само)обучение всего лишь сгруппировало (проклассифицировало) на базе игрового опыта все "похожие" позиции в один и тот же "коробок", остается протянуть руку и вытянуть "спичку с сильным ходом."
Здесь имеется в виду "самодельная самообучающаяся машина из спичечных коробков", описанная популяризатором математики Мартином Гарднером в своей книге "Математические досуги" ещё в середине 60-х годов прошлого века (попутно хочу отметить, что этой замечательной книгой я тоже зачитывался в школе). В принципе, Сергей очень метко и образно описал суть метода, применяемого при выборе хода программами, созданными компанией DeepMind. Более того, именно эту машинку из спичечных коробков я вспоминал, когда обдумывал, как решить проблему комбинаторного взрыва при распознавании рукописного текста, и она подсказала мне простое решение, в чём-то перекликающееся с алгоритмом, применённым DeepMind более, чем десятилетие спустя (основная разница была в том, что в моём случае алгоритм играл с "равнодушною природой" ((с) А.С.Пушкин), а не с активно противоборствующим противником). На мой взгляд, как бы это кому-то не показалось возмутительным, именно так, по большому счёту, поступает и человек, когда решает, что делать в сложной ситуации. Опыт и интуиция подсказывают ему, какой коробок открыть, но если даже после долгого (само)обучения оказывается, что в нём лежит примерно одинаковое число бусинок разного цвета, то выбор оказывается во многом случайным, очередной "ход" сопровождается нерешительностью и колебаниями, что, по-видимому, и может порождать иллюзию свободы выбора, ака "свобода воли". Вот чего пока, по-видимому, ещё не научились делать системы ИИ, так это учитывать слабые места конкретного противника, меняя в зависимости от этого тактику и вариант нейросети. Действительно, "белковые" шахматисты топ уровня всегда учитывают специфику игры и слабые места своего визави, и по этой причине, иногда могут осознанно идти на объективно немного худшую позицию, если известно, что сидящий напротив противник именно в таких позициях играет хуже и у него выше шансы ошибиться, выбрав не лучший ход. Одним из типичных приёмов может быть так же попытка вывести соперника из равновесия, заставив волноваться и нервничать. В частности, известно, что любящий жертвовать фигуры М.Таль далеко не всегда просчитывал последствия жертвы до конца, надеясь на свою интуицию. При этом, во многих случаях после окончания партии аналитики выясняли, что жертва была некорректна, и при правильной защите вела к поражению, но разволновавшийся от неожиданности противник, находящийся в состоянии нервного возбуждения, и чувствующий себя, видимо, примерно как кролик перед удавом, не мог найти прямо за доской правильное опровержение, и в итоге проигрывал.
Оценить статью можно после того, как в обсуждении будет хотя бы одно сообщение.
Об авторе:Статьи на сайте Форнит активно защищаются от безусловной веры в их истинность, и авторитетность автора не должна оказывать влияния на понимание сути. Если читатель затрудняется сам с определением корректности приводимых доводов, то у него есть возможность задать вопросы в обсуждении или в теме на форуме. Про авторство статей >>.
Обнаружен организм с крупнейшим геномом Новокаледонский вид вилочного папоротника Tmesipteris oblanceolata, произрастающий в Новой Каледонии, имеет геном размером 160,45 гигапары, что более чем в 50 раз превышает размер генома человека.