Ознакомьтесь с Условиями пребывания на сайте Форнит Игнорирование означет безусловное согласие. СОГЛАСЕН
ВХОД
 
 
Привет! Правила | Свежее | Чат | Подписка
Чтобы оставлять сообщения нужно авторизоваться.

Тема форума: «Искусственные нейросети»

1 2
 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45814 показать отдельно Апрель 22, 2019, 01:18:07 AM
ответ -только после авторизации

Один из ведущих спецов Yandex про будущее ИИ:  


Метка админа:

 
nan
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 12275


E-Mail
личная фото-галерея
Оценок: 39
список всех сообщений
clons
Сообщение № 45815 показать отдельно Апрель 22, 2019, 07:17:28 PM
ответ -только после авторизации

Человек, который признается, что не понимает, что такое интеллект, в принципе не может быть специалистом по интеллекту, даже искусственному. У него нет этического права говорить авторитарно об этом. Он – специалист по “нейронным сетям”, которые тоже так не должны называться, как и интеллектом. Точнее он – специалист по технологии многослойных персептронов. А это не имеет никакого отношения к нейронам потому, что в мозге нет никаких многослойных персептронов:

Искусственная нейросеть

Природная нейросеть мозга

Многослойный персептрон с общей функцией распознавания для всей сети, в котором объединены все профили рецепторов. Связь типа все – со всеми.

Состоит из однослойных персептронов, каждый из которых формирует свою собственную функцию распознавания, связанных с последующими слой за слоем.

Формируется сразу и обучается вся сеть сразу.

Формируется строго поочередно (сначала созревает очередной слой и начинает специализироваться), начиная с самых простейших примитивов распознавания, на каждый слой которых выделяется определенное время (критический период развития). У человека на завершение развития всех слоев используется 25-30 лет.

Может обучиться очень точному распознаванию, улавливая самые незаметные общности в явлении – при условии достаточного числа (сотни тысяч и более) предъявляемых примеров с имеющейся оценкой верности каждого из них.

Очень неточное распознавание, но зато очень небольшого числа входных признаков для каждого специализирующегося персептрона. Влияние соседних персептронов для контрастирования общего (для участка слоя) профиля на входах. Каждый отдельный персептрон обучается “без учителя”, просто специализируясь на наиболее частом профиле возбуждения за время его обучения.

Обучается учителем, обычно заранее заготовленной последовательностью примеров верных или неверных распознавания в очень большом количестве (пропорциональном сложности объекта распознавания в отличиях вариантов правильного и неправильного распознавания).

Обучается без учителя, при экспонировании профиля активности на время, достаточное, чтобы некоторые совпадающие активности оказывались более рельефными, чем случайные, что так же контрастируется латеральным торможением. Время экспонирования равно времени собственной активности нейрона (пейсмекерной или вынужденной из-за возбуждения по других входам) обучающегося нейрона.

Способность только переобучаться за счет уже имеющейся архитектуры слоев, без добавления или убавления рецепторов и эффекторов.

Способность развивать новые распознаватели для адаптации к новым условиям даже при потере каких-то внутренних распознавателей или потери рецепторов и эффекторов или приобретения новых эффекторов (рост, регенерация мышечной ткани).

Критерием верности функции распознавания является привнесенные оператором условия, а не состояние самой сети.

Во всей сети все ее элементы корректируются в соответствии с этим конечными условиями.

Критерием верности распознавания образов восприятия-значимости-действия является сигналы специализированных рецепторов состояния гомеостаза и их интерпретация более высокоуровневыми рецепторами системы значимости. До ассоциативной зоны распознаватели формируются без учителя.

Многослойный персептрон в принципе не может реализовать нечто большее, чем просто распознаватель, пусть и сверхточный, но даже не контекстный потому, что 1) для этого нужно последовательное развитие примитивов восприятия и действия 2) должна быть задействована личная значимость воспринимаемого и действий. А технология многослойных персептронов – это обучение сразу готовой сложной сети.

Разговори дяденьки вели только о технологии многослойных персептронов и фантазировали о ее будущем развитии.



p.s. Допускаю, что мое утверждение может быть неверно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
Метка админа:

 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45792 показать отдельно Апрель 23, 2019, 02:12:18 AM
ответ -только после авторизации

Я, к сожалению, не настолько знаком с искусственными нейронными сетями, чтобы уверенно рассуждать о них, но практически по всем пунктам у меня вроде бы есть контрпримеры в машинном обучении:

 

>>> Состоит из однослойных персептронов, каждый из которых формирует свою собственную функцию распознавания

Реализовано. 

 

>>> Формируется строго поочередно (сначала созревает очередной слой и начинает специализироваться)

Реализовано.

 

>>> Влияние соседних персептронов для контрастирования общего.

Реализовано. 

 

>>> Обучается без учителя

Реализовано. 

 

>>> Критерием верности распознавания образов восприятия-значимости-действия является сигналы специализированных рецепторов состояния гомеостаза.

В какой-то мере реализовано. 

 

В  одной из недавних книг, которые я читал, Рей Курцвейл описывал свои взгляды на работу мозга и описал систему распознания речи и образов, которую он разрабатывал в течении своей  жизни - она основана на иерархических скрытых марковских цепях, но это не принципиально:

 

Цитаты из книги Рэй Курцвейл "Эволюция разума":

 

1) Обучение не более одному уровню абстракции за раз:

 

Очень важный этап – обучение мозга, как биологического, так и компьютерного. Как я уже писал, иерархическая система распознавания образов (и цифровая, и биологическая) за один момент осваивает не больше двух иерархических уровней (а скорее один). Чтобы усовершенствовать систему, я начну с предварительно обученных иерархических сетей, которые уже научились распознавать человеческую речь, печатные буквы и структуры разговорного языка. Такая система сможет читать документы, написанные разговорным языком, но за один раз по-прежнему сможет осваивать примерно один понятийный уровень.

 

2) Иерархия распознавателей, латеральное торможение:

 

Созданная нами технология строилась практически по тем же принципам, что реализуются при мысленном распознавании образов. Она также была основана на иерархии образов, при которой каждый более высокий уровень отличался от нижестоящего уровня большей абстрактностью. Например, в системе распознавания речи основные образы звуковой частоты формировали нижние уровни, за ними следовали фонемы, затем слова и фразы (часто распознававшиеся так, как будто были словами). Некоторые системы распознавания речи могут понимать речевые команды и в таком случае включают в себя еще более высокие иерархические уровни, содержащие такие структуры, как именные и глагольные группы. Каждый распознающий модуль умеет распознавать линейную последовательность образов с нижестоящего понятийного уровня. Каждый входной сигнал характеризуется значимостью, величиной и вариабельностью величины. Существуют также и нисходящие сигналы, указывающие на ожидание образа низшего уровня.

 

3) Предопределенное обучение без учителя. Эволюция:

 

Еще один важный аспект разработки программы заключается в том, чтобы найти способ установить все те многочисленные параметры, которые контролируют функционирование системы распознавания. Среди этих параметров – допустимое число векторов для этапа векторного квантования, исходная топология иерархических состояний (до того, как в процессе тренировки ИСММ ликвидирует неиспользуемые состояния), порог распознавания на каждом иерархическом уровне, параметры, определяющие величину сигналов, и многое другое. Мы можем использовать интуитивный подход, но результаты будут далеки от оптимальных.

Мы называем данные параметры «Божьими параметрами», поскольку они устанавливаются до включения самоорганизующегося метода определения топологии скрытых моделей Маркова (или, в случае биологической новой коры, до того как человек начинает заучивать урок путем создания связей между нейронами новой коры). Возможно, название неправильное, поскольку эти исходные данные, записанные в ДНК, определены ходом биологической эволюции, хотя некоторые усматривают в этом процессе божий промысел (я, безусловно, считаю эволюцию духовным процессом и обращусь к этой теме в девятой главе).

Когда мы начали устанавливать «Божьи параметры» при моделировании иерархических систем обучения и распознавания, мы опять-таки обратились к природе и попытались оценить их путем моделирования процесса эволюции. Мы использовали так называемые генетические (эволюционные) алгоритмы, основанные на моделировании полового размножения и мутаций.

[...]

В системах распознавания речи сочетание генетических алгоритмов и скрытых моделей Маркова дало возможность получить отличные результаты. Симуляция эволюции с помощью ГА в значительной степени улучшила производительность сетей ИСММ. Эволюция позволила достичь результата, который намного превзошел исходный вариант, основанный на нашей интуиции.

 

4) Минимизация числа связей:

 

В наших системах, созданных в 1980-х и 1990-х гг., происходило автоматическое удаление контактов, вес которых был ниже определенного уровня, а также формирование новых контактов для лучшего соответствия тренировочным данным и обучения. Для оптимальной организации связей с новыми распознающими модулями мы можем использовать линейное программирование.

 

Это описание системы, которая лежит в основе SIRI (iPhone) и ей подобных. В ней реализовано многое из того, что, с твоих слов, якобы не реализовано в современных искусственных нейронных сетях. Да, конкретно эта система построена на иерархических скрытых марковских цепях, но принципиальных ограничений сделать тоже самое через искусственные нейронные сети, по-моему, нет. 

 

Поэтому я не понимаю, о чём идёт речь, когда ты приводишь в пример эту таблицу сопоставлений. Ты хочешь показать неадекватность решения в лоб? Что нельзя просто взять многослойную нейронную сеть и надеяться на чудо?

 

Просто, в целом, в машинном обучении, вроде бы исправлены те недостатки, на которые ты указал. Говорить о том, что не используется параметр гомеостаза, вроде бы, тоже нельзя, это достаточно очевидная идея, я думаю в AlphaStar (ИИ, который играет в Старкрафт) есть что-то подобное.

 

 

 

 

Этот набор нейронных сетей помимо всего прочего пытается предсказать исход игры (выигрываю/нечья/проигрываю) и максимизировать своё состояние "кажется выигрываю", и это вполне можно считать гомеостазом. Для этой совокупности нейросетей рай - состояние "выигрываю" и ад - состояние "проигрываю".


Метка админа:

 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45793 показать отдельно Апрель 23, 2019, 03:35:16 AM
ответ -только после авторизации

На всякий случай оговорюсь, я не утверждаю, что у текущих искусственных нейронных сетей и теории машинного обучения нет проблем. Речь скорее о том, что, на мой взгляд, ты указал в таблице на те проблемы, которые в той или иной мере уже разрешены в машинном обучении.


Метка админа:

 
kak
Имеет права модератора обсуждений - модератор

Род: Мужской
Сообщений: 775

Телефон: +79217162023
Оценок: 5
список всех сообщений
clons
Сообщение № 45794 показать отдельно Апрель 23, 2019, 07:39:53 AM
ответ -только после авторизации
Только не большое уточнение. Многослойный персептрон как и любая искусственная "нейронная сеть" не распознает, а классифицирует входные данные, так как для того что бы что-то распознать (узнать, знать и т.д.) необходимо: "1) для этого нужно последовательное развитие примитивов восприятия и действия 2) должна быть задействована личная значимость воспринимаемого и действий." (nan)

Метка админа:

 
nan
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 12275


E-Mail
личная фото-галерея
Оценок: 39
список всех сообщений
clons
Сообщение № 45795 показать отдельно Апрель 23, 2019, 07:51:16 AM
ответ -только после авторизации

Айк, современные нейронные сети, которые сделали прорыв в эффективности и мощный хайп это – “глубокие сети” – именно многослойный персептрон, который создается сразу и обучается как единое целое так, что никто не может сказать, какую именно функциональность берет на себя тот или иной элемент внутренних слоев. В нейронной сети распознавательная функция каждого элемента четко определена и стоит его возбудить, как в восприятии появляется соответствующий образ.

Спец от Яндекса говорил именно об этих сетях. То, что кто-то где-то пробует и однослойные персептроны – вопрос другой (и там очень много проблем в реализации все по тем же причинам: личная значимость, организующая контекст).

 

>>Говорить о том, что не используется параметр гомеостаза, вроде бы, тоже нельзя, это достаточно очевидная идея, я думаю в AlphaStar (ИИ, который играет в Старкрафт) есть что-то подобное.

Нет ничего подобного потому, что значимость задается искусственно как один из параметров, задающихся оператором, как цель распознавания.

В общем-то о полном отсутствии корреляции в принципах говорят сами спецы этих сетей.



p.s. Допускаю, что мое утверждение может быть неверно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
Метка админа:

 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45796 показать отдельно Июнь 23, 2019, 04:33:45 PM
ответ -только после авторизации

>>> технология многослойных персептронов – это обучение сразу готовой сложной сети.


 
Nan, откуда эти утверждения берутся? В Deep Learning сейчас действительно умеют обучать всю сеть сразу, для этого появилась нужная математика, но она появилась не так давно, лет десять тому назад, до этого использовались алгоритмы предобучения, они и сегодня используются, просто, это технически более сложная задача.


 
Вот историческая справка из википедии:
Глубокое обучение приобрело популярность в середине 2000-х годов, когда всё сошлось воедино: компьютеры стали достаточно мощными, чтобы обучать большие нейронные сети (вычисления научились делегировать графическим процессорам, что ускорило процесс обучения на порядок), наборы данных стали достаточно объёмными, чтобы обучение больших сетей имело смысл, а в теории искусственных нейронных сетей произошло очередное продвижение — статьи Хинтона, Осиндеро и Тэ, а также Бенджио, в которых авторы показали, что можно эффективно предобучать многослойную нейронную сеть, если обучать каждый слой отдельно при помощи ограниченной машины Больцмана, а затем дообучать при помощи метода обратного распространения ошибки.
 

Ограниченные машины Больцмана были описаны ещё в 80-х годах.


 
Альтернативой предобучению является Xavier initialization (инициализация Завьера), но работа эта появилась только в 2010 году.


Метка админа:

 
nan
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 12275


E-Mail
личная фото-галерея
Оценок: 39
список всех сообщений
clons
Сообщение № 45797 показать отдельно Июнь 23, 2019, 05:15:15 PM
ответ -только после авторизации

>>Nan, откуда эти утверждения берутся?

Ты сам тут же и раскрыл тему. Нет обучения отдельных однослойных персептронов, а сразу делается попытка обучения больших участков сети или всей сети. Сам термин “глубокая нейросеть” означает структуру многослойного персептрона, в которой невозможно выделить функции отдельных нейронов. Вот когда придут к пониманию, что обучать сеть нужно строго послойно, а в каждом слое формировать распознаватели профиля данного уровня, вот тогда это встанет на верный путь. Почему именно это верный очень подробно изложено и обосновано в лекциях.



p.s. Допускаю, что мое утверждение может быть неверно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
Метка админа:

 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45798 показать отдельно Июнь 24, 2019, 01:07:20 AM
ответ -только после авторизации

>>> сразу делается попытка обучения больших участков сети или всей сети

 

Пока не понимаю. Я же цитату специально привожу: можно эффективно предобучать многослойную нейронную сеть, если обучать каждый слой отдельно при помощи ограниченной машины Больцмана

 

То есть сначала предобучается слой А, потом следующий за ним слой Б и так далее. Что не так?

 

>>> в которой невозможно выделить функции отдельных нейронов

 

Есть специальные методы для повышения модульности слоёв.

 

Например, широко используется "дропаут" ("метод исключения", "метод прореживания"), когда на части обучающей выборки, которая сейчас используется для обучения, часть связей все-со-всеми в выбранных слоях выпадает из вычислений. Это способствует формированию персептронов, которые распознают устойчивые, характерные признаки на данном этапе абстрагирования и не адаптируются избыточно к глобальной архитектуре сетки.

 

 

 

https://arxiv.org/abs/1207.0580 - Improving neural networks by preventing co-adaptation of feature detectors

 

Dropout предотвращает совместную адаптацию для каждого скрытого блока, делая присутствие других скрытых блоков ненадежным. Поэтому скрытый блок не может полагаться на другие блоки в исправлении собственных ошибок.

 

Есть эволюционное объяснение, по-моему, от Хинтона:

One possible interpretation of mixability articulated in is that sex breaks up sets of co-adapted genes and this means that achieving a function by using a large set of co-adapted genes is not nearly as robust as achieving the same function, perhaps less than optimally, in multiple alternative ways, each of which only uses a small number of co-adapted genes. This allows evolution to avoid dead-ends in which improvements in fitness require co-ordinated changes to a large number of co-adapted genes. It also reduces the probability that small changes in the environment will cause large decreases in fitness a phenomenon which is known as “overfitting” in the field of machine learning.

 

Примерный пересказ:

Все самые высокоорганизованные животные размножаются именно половым путем. Объяснение этому примерно то же, что и объяснение полезности дропаута: важно не столько собрать хорошую комбинацию генов, сколько собратъ устойчивую и хорошую комбинацию генов, которая потом будет широко воспроизводиться и сможет стать основой для новой линии потомков. А этого проще достичь, если заставлять гены, как признаки в нейронной сети, «работать» поодиночке, не рассчитывая на соседа (который при половом размножении может просто пропасть) 

 

Я затрудняюсь сказать достаточно ли классического дропаута, чтобы можно было говорить о выявлении фич доступных для интерпретации на конкретном персептроне (скорее всего нет), но работы в этом направлении есть.

 

>>> Многослойный персептрон с общей функцией распознавания для всей сети, в котором объединены все профили рецепторов. Связь типа все – со всеми.

 

Есть методы для сжатия DNN, например, вариационный дропаут, который используется в том числе для разрядки нейронных сетей, имеет относительно строгое математическое обоснование на базе баесовской модели и позволяет уйти от принципа "все-со-всеми", итоговые сети сжимаются в десятки раз - то есть по сути реализуется прунинг.

 

Ты сам понимаешь, я не спец в искусственных нейронных сетях, я осваиваю азы и это должно быть видно, но вопросы о корректности сопоставления искусственных и биологических сетей уже возникают. Создаётся впечатление, что искусственные нейронные сети всё заметнее движутся в сторону их биологического вдохновителя. При этом толкает их туда, как эвристика, так и математика. Может быть, всё дело в том, что проблемный мир одинаковый (сейчас их используют для решения значимых для человека задач и человеческих игр), а может причины более глубокие. Не знаю.


Метка админа:

 
nan
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 12275


E-Mail
личная фото-галерея
Оценок: 39
список всех сообщений
clons
Сообщение № 45799 показать отдельно Июнь 24, 2019, 08:02:25 AM
ответ -только после авторизации

>> широко используется "дропаут" ("метод исключения", "метод прореживания"), когда на части обучающей выборки, которая сейчас используется для обучения, часть связей все-со-всеми в выбранных слоях выпадает из вычислений.

Это – совершенно не так, как реализуется в природе. Все-со всеми – уже неверное решение. Но даже такая локализация обучения дает гораздо лучший результат, чем обучение сразу всех слоев. В лекции в таблицу сведено то, что отличием искусственные сети и природную реализацию, там много пунктов.

Не просто изоляция нейронов при обучении, а определенное взаимодействие соседних нейронов в слове обеспечивает оптимальное качество специализации. При этом нет никакого такого обратного распространения ошибки, что нонсенс на данном уровне специализации.

Ты прервал изучение систематизированного изложения в лекциях того, что оптимизировала природа, демонстрируешь очень большое недопонимание этого, но пытается как-то что-то сопоставлять с искусственными сетями, а это – принципиально неверно.



p.s. Допускаю, что мое утверждение может быть неверно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
Метка админа:

 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45800 показать отдельно Июнь 24, 2019, 12:13:48 PM
ответ -только после авторизации

То что отличий очень много, мне очевидно. А вот из чего следуют рассуждения: "как-то что-то сопоставлять с искусственными сетями – принципиально неверно", - непонятно.

 

Я не думаю, что есть какая-то принципиальная несовместимость, и я буквально с каждым пунктом критических сопоставлений в твоей таблице несогласен. Тут ничего не поделать, видимо. Как мог, я возразил.

 

>>> Ты прервал изучение систематизированного изложения в лекциях

 

Да, я в скором времени вернусь к лекциям. Но там для меня нет чего-то принципиально нового, кроме безусловно ценной возможности лучше понятно твои взгляды и повторить любимый материал.

 

И опять же, часть слушателей твоих лекций легко соглашается с достаточно спорным материалом и смелыми обобщениями. Им всё зашибись. Но я так не умею.

 

С теми же искусственными нейронными сетями есть много нюансов, множество архитектур - это сложная быстро развивающаяся область машинного обучения, где у станка сейчас работает множество талантливых людей. Если просто так вестись на твои оценки, то можно попасть на огромные деньги и упустить массу возможностей связанных с ML.

 

Если же забить на твои оценки и думать своей головой, то от твоих материалов гораздо больше пользы. В том числе становится легче понимать искусственные нейронные сети, как минимум, ряд идей в них.

 

Но в целом, спасибо тебе, что ты нами вообще занимаешься, тратишь на нас время, всё это очень важно и по-человечески ценно. Мне кажется, я тебе не так часто говорю спасибо, как следовало бы.

 

>>> нет никакого такого обратного распространения ошибки

 

Я как раз уткнулся носом в работу Хинтона на эту тему: Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures (2018), - он ведущий специалист в искусственных нейронных сетях на сегодня, и как раз исследует биологически правдоподобные альтернативы обратному распространению ошибки, но приходит к выводу, что все они пока работают плохо.


Метка админа:

 
watts
Пишет без ограничений, редактирует историю - unlimited

Сообщений: 85
список всех сообщений
clons
Сообщение № 45801 показать отдельно Июнь 24, 2019, 02:04:51 PM
ответ -только после авторизации
Я вижу логику различий так , но это гипотеза.

Основная цель обучения искусственных сетей - научиться распознавать признаки характеризующие заранее размеченную выборку. Здесь прямая связь с обратным распространением ошибки , как подходом. Критерий удачного обучения - распознавание заранее заданных признаков.

Если мы посмотрим на естественную нейросеть - там нету заранее заданного критерия удачного обучения.То есть, что именно из всего что потенциально можно научиться распознавать потребуется в дальнейшем - не известно заранее. И до момента включения механизма "означивания" признаков сеть учится "в слепую"( все выделяемые признаки ничего не значат и равноценны). Раз так , то осмысленным будет задать избыточность (!) в возможности выделять любые признаки.
При этом так как количество нейронов все равно ограниченно для живых организмов , то оптимальным кажется выделить в самом начале некоторую универсальную азбуку признаков и по мере надстраивания следующих слоев выделять все более специфические наборы признаков все более контрастировать одни "объекты" от других за счет разницы профилей возбуждения от разных групп распознавателей с нижележащих уровней.

Если эта гипотетическая логика верна , то в МЛ с обратным распространением не возникает такой азбуки специализаций нейронов и возможность произвольно выделять группы признаков из всего массива.

В то же время мне кажется подобные идеи наверняка могут витать в головах нейропрограммистов. Другое дело что практически они ограничены вычислительной мощностью.
Резюмируя мысль - цель природной нейросети - вычленение избыточно большого количества признаков , в том числе это дает потенциальную возможность произвольного выделения вниманием и означивания. Цель искусственных нейросетей - максимально точное распознавание ограниченного количества заранее заданных групп признаков.

У меня конечно дофига вопросов к вышенаписанному мною.)Например не очень ясно как зарегулировать количество нейронов в новом слое , что бы их было достаточно.Одно из решений - опять таки избыточность , сделать много и часть проредить. Либо включать новые нейроны в течении некоего срока - он может быть выбран эмпирически как время созревания определенного слоя.

Метка админа:

 
nan
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 12275


E-Mail
личная фото-галерея
Оценок: 39
список всех сообщений
clons
Сообщение № 45802 показать отдельно Июнь 24, 2019, 02:25:34 PM
ответ -только после авторизации

автор: Айк сообщение № 15673:

я буквально с каждым пунктом критических сопоставлений в твоей таблице несогласен

В том, что ты озвучил, я тебе дал ответ. Обоснования того, как именно реализовала природа - есть. Если есть желание подробно обсудить и оспорить – заводи тему по различиям.

 

>>часть слушателей твоих лекций легко соглашается с достаточно спорным материалом и смелыми обобщениями. Им всё зашибись. Но я так не умею.

Ты не показал в чем именно спорность. То, кто с чем соглашается или нет – их дело, ты не проводил опрос. Говорим беспредметно, какой смысл в такой огульности?

 

>> он ведущий специалист в искусственных нейронных сетях на сегодня, и как раз исследует биологически правдоподобные альтернативы обратному распространению ошибки, но приходит к выводу, что все они пока работают плохо.

У подобных исследователей пока нет ни малейшего понимания в том, когда и как должна осуществляется коррекция ошибками так, чтобы система стала само-адаптирующейся, а не следовала оценкам задающего оценки эксперта. Это – область личной произвольности оценок. На доосознанном же уровне используется гомеостатическая система значимости в качестве “подкрепления”.



p.s. Допускаю, что мое утверждение может быть неверно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
Метка админа:

 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45803 показать отдельно Июнь 24, 2019, 02:54:39 PM
ответ -только после авторизации

По искусственным нейронным сетям:

 

>>> (watts) Критерий удачного обучения - распознавание заранее заданных признаков. 

 

Признаки, фичи, можно задать заранее. Но в целом искусственные многослойные нейронные сети самостоятельно ищут фичи.

 

>>> (watts) Основная цель обучения искусственных сетей - научиться распознавать признаки характеризующие заранее размеченную выборку.

 

Тут нужно оговориться. Цель - не эффективно распознавать размеченные данные - это элементарная, тривиальная задача, а эффективно работать в предметной области. Для этого сеть должна избежать переобучения.

 

Способов обучения и задач у нейронных сетей много, в том числе:

 

- без учителя, с учителем, с подкреплением;

- есть распознающие сети (классифицирующие и ранжирующие), есть порождающие сети;

 

По биологическим:

 

>>> (watts) Если мы посмотрим на естественную нейросеть - там нету заранее заданного критерия удачного обучения.

 

Скорее да, чем нет.

 

>>> (watts) То есть, что именно из всего что потенциально можно научиться распознавать потребуется в дальнейшем - не известно заранее.

 

Тут нужно оговориться: биологические сети прошли через естественный отбор и обладают ограниченной пластичностью в приделах тех проблемных областей, к которым адаптировались.

 

При этом иногда биологические модули могут эффективно перестраиваться, кооперироваться для решения новых задач: например, для задач чтения и письма. Но переоценивать пластичность биологических сетей не стоит, равно как недооценивать.

 

>>> (watts) о момента включения механизма "означивания" признаков сеть учится "в слепую"( все выделяемые признаки ничего не значат и равноценны)

 

Да. В искусственных сетях есть аналог - обучение без учителя.

 

>>> (watts) Раз так , то осмысленным будет задать избыточность (!) в возможности выделять любые признаки.

 

Любые, нет. Что искусственные, что биологические сети ограничены своей внутренней архитектурой.

 

Выбор архитектуры у искусственных сетей играет большую роль, так как в архитектуре сети (например, свёрточной) заключено специфическое знание о мире, которое подталкивает сеть в нужном направлении. То же самое верно для биологических сетей.

 

Архитектура биологических сетей обусловлена адаптацией к проблемной среде. Но это не значит, что эта архитектура жестко и однозначно закодирована в геноме. Просто, она не так пластична, как многим кажется.

 

>>> (watts) При этом так как количество нейронов все равно ограниченно для живых организмов , то оптимальным кажется выделить в самом начале некоторую универсальную азбуку признаков и по мере надстраивания следующих слоев выделять все более специфические наборы признаков все более контрастировать одни "объекты" от других за счет разницы профилей возбуждения от разных групп распознавателей с нижележащих уровней.

 

Верно. У искусственных сетей тоже самое. Вычислительные мощности стоят дорого, сети часто нужно умещать на мобильниках. Отсюда появляются специальные методы сжатия искусственных нейронных сетей, которые при этом часто улучшают результаты распознавания, как в случае с вариационным дропаутом.

 

>>> (watts) в МЛ с обратным распространением не возникает такой азбуки специализаций нейронов и возможность произвольно выделять группы признаков из всего массива.

 

Возникнет. Я выше описал метод дропаута и методики послойного обучения глубоких сетей. 

 

>>> (watts) возможность произвольно выделять группы признаков из всего массива

 

В ML есть сети с вниманием и рабочей памятью. Они крайне важны для ряда прикладных задач, например, для переводов. Это не прямые аналоги биологического внимания и короткой памяти / рабочей памяти, но тем не менее.

 

 >>> (watts) В то же время мне кажется подобные идеи наверняка могут витать в головах нейропрограммистов.

 

Не просто витают. Это реализовано. При этом речи о том, что биологические и искусственные нейронные сети эквивалентны - нет. Мы пока очень далеки от понимания важных нюансов работы биологических сетей и их строгого математического осмысления, но в тех моментах, что ты описал, биологические и искусственные сети вполне сопоставимы. 

 

>>> (watts) И до момента включения механизма "означивания" признаков сеть учится "в слепую"( все выделяемые признаки ничего не значат и равноценны). 

 

Посмотри, как работают AlphaGo и AlphaStar. В них используется обучение с подкреплением. Такой способ обучения используется в средах с высокой степенью неопределенности. 


Метка админа:

 
Айк
Имеет права полного администратора сайта - админ

Сообщений: 3768
!!!
личная фото-галерея
Оценок: 4
список всех сообщений
clons
Сообщение № 45804 показать отдельно Июнь 24, 2019, 03:07:46 PM
ответ -только после авторизации

>>> (nan) Если есть желание подробно обсудить и оспорить – заводи тему по различиям.

 

Да, я попозже создам тему. Пока рановато, наверное.

 

>>> (nan) То, кто с чем соглашается или нет – их дело, ты не проводил опрос.

>>> Говорим беспредметно, какой смысл в такой огульности?

 

Есть довольно много теорий, вроде тех же IIT и GWT, нейродарвинизма и других, которые кажутся тебе поверхностными и далекими от сути происходящего. Ты обычно не тратишь время на чтение статей / литературы по этой тематике. В твоих работах не встретить ни современных философов, ни теоретиков.

 

Почему?

 

Ну потому что ты не согласен, как с суждениями авторов, так и просто предпочитаешь делать личные системные обобщения.

 

Ровно те же эмоции испытываю я, когда читаю твои лекционные материалы, чтобы двигаться дальше по лекциям, мне нужно пересказать в ответах на вопросы твою точку зрения и умолчать о своей.

 

Иногда, когда есть возможность поделиться своими взглядами, я этим пользуюсь, как в случае с "альтернативной аксиоматикой". Но в случае с искусственными нейронными сетями - это принципиально невозможно выразить в домашней работе. Тем более когда мои личные представления только разрабатываются. В домашнем задании остаётся просто пересказывать тебе твои взгляды, которых я, в общем-то, не разделяю.

 

Я сейчас в рамках школы ставлю перед собой цель лучше тебя понять. Но понять и согласиться, это не всегда одно и тоже, и это создаёт некоторые сложности. Каких-то ошибок с твоей стороны нет, ты абсолютно корректен и отзывчив в обсуждениях.


Метка админа:

 
1 2 Статистика:
Всего Тем: 1925 Всего Сообщений: 47850 Всего Участников: 5200 Последний зарегистрировавшийся: kghkgklg
Страница статистики форума | Список пользователей | Список анлимитов
Последняя из новостей:
Трилогия: Основы фундаментальной теории сознания.

Обнаружен организм с крупнейшим геномом
Новокаледонский вид вилочного папоротника Tmesipteris oblanceolata, произрастающий в Новой Каледонии, имеет геном размером 160,45 гигапары, что более чем в 50 раз превышает размер генома человека.
Тематическая статья: Тема осмысления

Рецензия: Рецензия на книгу Майкла Газзанига Сознание как инстинкт

Топик ТК: Матрица, как симулякр-среда для симулякров
Пользователи на форуме:

Из коллекции изречений:
>>показать еще...