Ознакомьтесь с Условиями пребывания на сайте Форнит Игнорирование означет безусловное согласие. СОГЛАСЕН
ВХОД
 
 
Короткий адрес страницы: fornit.ru/2724
Содержание журнала Достижения науки, техники и культуры
Ссылка на первоисточник статьи: http://dlux.ru/konec-iskusstvennogo-intellekta-dazhe-raspoznavaniya-rechi-ne-budet.

Конец Искусственного Интеллекта: даже распознавания речи у него не будет

Автор: Дмитрий Смаглюк

Предполагалось, что когда компьютер научится понимать человеческую речь, мы быстро сможем создать искусственный интеллект (ИИ). Но точность систем распознавания речи достигла своего пика в 1999 году и с тех пор застыла на месте. Академические тесты 2006 года констатируют факт: системы общего профиля так и не преодолели уровень 80%, тогда как у человека этот показатель составляет 96-98%.

Профессор Роберт Фортнер из Media Research Institute считает, что создатели систем распознавания речи окончательно зашли в тупик. Программисты сделали всё что смогли, и у них не получилось. Спустя несколько десятилетий они поняли, что человеческая речь — не просто набор звуков. Акустический сигнал не несёт достаточно информации для распознавания текста.

Сложность задачи можно себе представить. По некоторым оценкам, количество возможных предложений в человеческом языке составляет 10570. В документированных источниках зафиксирована лишь малая их часть, так что систему невозможно научить, даже если «скормить» ей все тексты, созданные людьми.

У многих слов в языке — сотни или тысячи значений. Выбор конкретного значения зависит от контекста, то есть от окружающих слов. В устной речи он ещё зависит от выражения лица или от интонации.

Наш мозг способен генерировать текст совершенно произвольно, используя интуитивно понятные правила функциональной грамматики и усвоенную с возрастом семантическую парадигму каждого слова. Эти правила описывают, какие слова могут сочетаться друг с другом и каким образом (через какие функциональные элементы). Значение каждого слова зависит от значения предыдущего слова, а в сложных случаях наш мозг распознаёт речь лишь по обрывкам фраз, зная контекст.

Базовые правила функциональной грамматики понятны каждому человеку, но их никак не удаётся формализовать, чтобы стало понятно и компьютеру. А без этого никак. Когда компьютер пытается распознать ранее не встречавшиеся ему предложения, он неизбежно будет допускать ошибки в распознавании, если у него нет грамматического парсера и словаря с семантическими парадигмами, встроенного в человеческий мозг.

Например, российские лингвисты когда-то попытались составить семантическую парадигму одного простого предлога русского языка (кажется, ПРИ). Они дошли до нескольких сотен значений, каждое из которых допускает свой набор последующих элементов. И это был явно не полный список.

По грамматике предлогов проводятся целые научные конференции (некоторые учёные всю жизнь изучают предлог ПО и не могут до конца раскрыть его тайны). А ведь подобное описание требуется для каждой морфемы человеческого языка, включая приставки и суффиксы. Только после этого можно будет приступить к программированию компьютерных систем распознавания речи. По силам ли человечеству эта задача? Ведь нужно учесть ещё, что парадигма каждого элемента человеческой речи постоянно меняется, ведь язык живёт своей жизнью и всё время эволюционирует. Как компьютерная система сможет самообучаться?

Самый поверхностный анализ опубликованных текстов в интернете компанией Google позволил выявить триллион объектов. Это лишь мизерная часть морфем, из которых состоит наша речь. Google выложил 24-гигабайтный архив с текстами во всеобщий доступ и прекратил дальнейшие публикации по этой теме.

Проект MindNet по созданию «универсального парсера» компания Microsoft начала в 1991 году. Они пытались построить универсальную карту всех возможных взаимосвязей между словами. На проект потратили много сил и финансовых средств, но были вынуждены практически прекратить исследования в 2005 году.

А раз уж зашли в тупик при решении относительно простой задачи с точки зрения мозга, то более сложные задачи, такие, как процесс творчества, интуиция и т.д. вообще недосягаемы. То есть создать настоящий ИИ и в принципе не представляется возможным.

по материалам: http://habrahabr.ru

Очевидно, что перебор комбинаций и классический анализ – когда нужно учесть все-все варианты комбинаций слов для мозга не подходит. Хотя бы потому что количество комбинаций уж слишком велико – 10570   :)

От «теории вероятности» нужно переходить к «теории точности». Кстати, для специалистов – как это сделать, описано только в книгах Евдокии Марченко.

Помню с каким наслаждением мой мозг нашёл в этой книге выход из тупика математического аппарата и научного подхода связанным с попытками применить научные методики для моделирования действий человека. Ещё в 90-х годах,  5 лет, целым отделом математического моделирования мы перелопачивали все источники как русские так и зарубежные,  от классических теорий вероятности и теории игр. Перепробовали все! существующие методики которые бы подошли для анализа, прогнозирования и моделирования поведения человека и развития различных событий, пока наконец-то не нашли книги Евдокии Дмитриевны Марченко.

И даже если Вы не специалист, а Вас просто заинтересовала эта новость – прочтите книгу Евдокии Дмитриевны Марченко «Теория и практика точности» – наслаждение прекрасным стилем и ощущение открытий многих тайн Интеллекта вам гарантировано!».

Комментарии представителей сайтов-участников nan: Не конец, а ИСТОКИ пути
Эта статья - пример профанации проблематики ИИ. Человек, ничего не понимающий в данной предметной области, по неким косвенным признакам, которые он интерпретирует довольно предвзято, делает профанические выводы.
Да, тот программистский подход, который используется в современных распознавалках отражает лишь уже автоматическую часть интеллекта, т.е. то, что уже сформировано как поведенческие автоматизмы. И никак и никто пока еще не реализовал суть адаптивной корректировки этих автоматизмов. Ну, а мадам Евдокия Марченко - типичный популист невежда. Так что мы не у конца реализации ИИ, которой и не было по сути (т.к. не было понимания принципов адаптивности поведения), а в самых истоках пути понимания.


Обсуждение Еще не было обсуждений.




Оценить статью >> пока еще нет оценок, ваша может стать первой :)

   
Архив новостей
Анонсы новостей    http://www.scorcher.ru/xml/news.rss - что это?
Путь решения проблемы сознания
Схемотехника адаптивных систем - Путь решения проблемы сознания.
07-02-2024г.

Развитие квалиа в онтогенезе или как именно мы все ощущаем
Последовательность формирования субъективных абстракций в механизмах произвольности выбора: Развитие квалиа в онтогенезе или как именно мы все ощущаем.
20-12-2023г.

Факторы деструктивного влияния в обществе: политика, реклама, соцсети, биржи, религия
Политические элиты все в большей степени паразитируют на обществе: Факторы деструктивного влияния в обществе: политика, реклама, соцсети, биржи, религия.
13-11-2023г.

Система децентрализованного управления обществом
Какой может быть эффективная система децентрализованного управления обществом: Система децентрализованного управления обществом.
08-09-2023г.

Принципиальные элементы фундаментальной теории сознания
Для верификации: Принципиальные элементы фундаментальной теории сознания.
07-08-2023г.

Коротко и ясно про мозг человека
Организации механизмов мозга человека: Коротко и ясно про мозг человека.
08-07-2023г.

Проблемы восприятия программной реализации искусственного разума
Анонсирование Beast: Проблемы восприятия программной реализации искусственного разума.
06-02-2023г.

О программной реализации живого существа
Анонс отчета: О программной реализации живого существа.
01-01-2023г.

Жизнь - Самоощущение - Разум
Терминологические определения понятий Жизнь, Самоощущение и Разум на основе выявленных механизмов реализации этих явлений в прототипе системы индивидуальной адаптивности: Жизнь - Самоощущение - Разум.
06-12-2022г.

Эссе «Одушевление»
Литературная демонстрация общей структуры самоощущения для всех живых существ, обладающих механизмами субъективных абстракций: Эссе «Одушевление».
20-03-2022г.

 посетителейзаходов
сегодня:00
вчера:00
Всего:9601031