Главная книга сайта Форнит: «Мировоззрение». Другие книги:
«Познай себя», «Основы адаптологии», «Вне привычного» и Лекторий МВАП.
 
Короткий адрес страницы: fornit.ru/7766
Вернуться к исходному документу
Обсуждение Квантовая магия С.И. Доронина
(Для начала - 10 последних)
Страницы: 1 2 3 ВСЕ 
  arctic список всех сообщенийПишет без лимита и ограничений - unlimited Качества arctic, оцененные другими пользователями Оценок: 7 Род: Мужской Сообщений: 2362  Сообщение № 11480 показать
ответ -только после авторизации

автор: SleepWalker сообщение 11476
путем прямого перебора всех возможных вариантов

Прямой перебор идет в компьютерных алгоритмах, да и то примитивных, без команд условно-безусловных переходов. А в мозге не так, тут этих переходов немеряно и еще неизвестно, каких больше. А прямой перебор... думаю, это не исключено, конечно, но практически не бывает.

25.03.2013г. 17:23:10


- Ну вот что, ребята! Пулемет я вам не дам!
 
   SleepWalker список всех сообщенийПишет без лимита и ограничений - unlimited Качества SleepWalker, оцененные другими пользователями Оценок: 3 Род: Мужской Сообщений: 219  Сообщение № 11481 показать
ответ -только после авторизации

Ну в общем-то я не специалист по квантовым вычислениям и теории вычислений, поэтому описание будет на некотором обывательском уровне.

Как работают основные алгоритмы обучения нейронных сетей, используемые в данный момент? Задается некий критерий ошибки - обычно функционал среднеквадратичной ошибки на выходе нейронной сети. Задаются случайные начальные значения весов синапсов. После чего используются свойства геометрии пространства ошибки для поиска локального минимума ошибки. Возможно я ошибаюсь но в общем случае поиск глобального минимума функции ошибки является задачей, решаемой исключительно путем полного перебора. В случае если мы зададим минимальный шаг изменения весов (для придания дискретности задачи) задача полного перебора имеет экспоненциальную сложность.

С другой стороны квантовый вычислитель позволяет в некоторых случаях сводить экспоненциальную сложность к полиномиальной.




25.03.2013г. 17:52:29
 
  nan список всех сообщенийИмеет права полного администратора сайта - админ Качества nan, оцененные другими пользователями Оценок: 39 Род: Мужской Сообщений: 10989 E-Mail  Сообщение № 11482 показать
ответ -только после авторизации

насчет перебора неверно даже для существующих алгоритмах искусственных нейросетей. И вообще не понятно к чему все это?,.



25.03.2013г. 18:10:30


p.s. Допускаю, что мое утверждение может быть порочно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
 
   SleepWalker список всех сообщенийПишет без лимита и ограничений - unlimited Качества SleepWalker, оцененные другими пользователями Оценок: 3 Род: Мужской Сообщений: 219  Сообщение № 11486 показать
ответ -только после авторизации

В общем пока остановимся на следующем - есть у меня интуитивная догадка что квантовый параллелизм вычислений позволяет обойти ограничения алгоритмов обучения нейронных сетей. Пока точно сформулировать не могу, надо почитать доп. материалы.. Так что думаю перенести обсуждение "на потом"...

25.03.2013г. 21:05:57
 
   gadget список всех сообщенийПишет без лимита и ограничений - unlimited Качества gadget, оцененные другими пользователями Оценок: 1 Род: Мужской Сообщений: 162  Сообщение № 11487 показать
ответ -только после авторизации

автор: SleepWalker сообщение 11486
В общем пока остановимся на следующем - есть у меня интуитивная догадка что квантовый параллелизм вычислений позволяет обойти ограничения алгоритмов обучения нейронных сетей. Пока точно сформулировать не могу, надо почитать доп. материалы.. Так что думаю перенести обсуждение "на потом"...

Если не трудно, объясни что за догадка, на аналогиях и примерах, "на пальцах".

Имел дело с разного рода нейронными сетями и алгоритмами обучения, для прогнозирования временных рядов. Судя по всему интерес к ним будет, периодически вспыхивать а потом опять затухать. Нейронки великолепные плагиаторы! Они подстраиваются под любой шум. Главная проблема их это не "переподгонки", "локальности" и тп. А вообще то что они по своей сути всего лишь ЭКСТРАПОЛЯТОРЫ и не более. Закономерности они не находят, усредняют ряд паттернов и кластеризуют. Хотя тема очень интересная, можно навсегда застрять в тестах и придумываниях модификаций алгоритмов обучения и структуры сети.

25.03.2013г. 21:43:38
 
   SleepWalker список всех сообщенийПишет без лимита и ограничений - unlimited Качества SleepWalker, оцененные другими пользователями Оценок: 3 Род: Мужской Сообщений: 219  Сообщение № 11496 показать
ответ -только после авторизации

автор: gadget сообщение 11487
Если не трудно, объясни что за догадка, на аналогиях и примерах, "на пальцах".


Ну попробую... На таком достаточно абстрактном уровне.

Смотри - нейронная сеть - универсальный аппроксиматор (есть теорема соответствующая), т.е. подбирая структуру сети и значения ее весов можно приблизить любую непрерывную функцию с любой заранее заданной точностью.

Возникает задача - как в произвольном случае подобрать структуру ( хрен с ним с весами, хотя мне лично неизвестен алгоритм , который бы гарантировал нахождение именно глобального оптимума весов) сети? Есть разные подходы - генетические алгоритмы к примеру.

Возникает догадка - а давайте искать решения путем перебора всех возможных вариантов. А чтобы он был возможен давайте используем свойство квантовых систем решать задачи экспоненциальной сложности за полиномиальное время.

Тут надо отметить что я не утверждаю возможность реализации такого подхода- т.к. это надо придумывать техническую реализацию , а я не настолько разбираюсь в квантовых вычислениях. Сам подход интересен. С другой стороны я почти уверен что что то подобное уже исследуется, надо только поискать хорошенько, потому как идея достаточно очевидна.

26.03.2013г. 11:44:31
 
   gadget список всех сообщенийПишет без лимита и ограничений - unlimited Качества gadget, оцененные другими пользователями Оценок: 1 Род: Мужской Сообщений: 162  Сообщение № 11497 показать
ответ -только после авторизации

автор: SleepWalker сообщение 11496
Возникает догадка - а давайте искать решения путем перебора всех возможных вариантов. А чтобы он был возможен давайте используем свойство квантовых систем решать задачи экспоненциальной сложности за полиномиальное время.

Тут надо отметить что я не утверждаю возможность реализации такого подхода- т.к. это надо придумывать техническую реализацию , а я не настолько разбираюсь в квантовых вычислениях. Сам подход интересен. С другой стороны я почти уверен что что то подобное уже исследуется, надо только поискать хорошенько, потому как идея достаточно очевидна.

Ясно. Спасибо. По поводу квантовых компьютеров настроен скептически.

автор: SleepWalker сообщение №11496
Возникает задача - как в произвольном случае подобрать структуру ( хрен с ним с весами, хотя мне лично неизвестен алгоритм , который бы гарантировал нахождение именно глобального оптимума весов) сети? Есть разные подходы - генетические алгоритмы к примеру.

Архитектур и алгоритмов обучения сейчас очень много, математически строго найти решение для общего случая, это ещё более амбициозно чем квантовые компьютеры))) Хотя бы для частных случаев было бы локально-общее решение Факт остается пока тот, что на обучающей выборке результаты великолепные, а тесты вне выборки - фиговые.

Другими словами, пока нейронкам до тандема аналитик+ программист, очень далеко. А те задачи по распознаванию и апроксимации что они решают сейчас крайне примитивны. Это пока скорей интеллектуальная игра чем бизнес, так же как квантовые компьютеры и исследования квантовой спутанности для мгновенной переда данных.

26.03.2013г. 14:22:23
 
  nan список всех сообщенийИмеет права полного администратора сайта - админ Качества nan, оцененные другими пользователями Оценок: 39 Род: Мужской Сообщений: 10989 E-Mail  Сообщение № 11500 показать
ответ -только после авторизации

автор: SleepWalker сообщение 11496

Возникает догадка - а давайте искать решения путем перебора всех возможных вариантов. А чтобы он был возможен давайте используем свойство квантовых систем решать задачи экспоненциальной сложности за полиномиальное время.

Это прокатывает только адаптировать распознаватель к заранее заготовленную жесткому шаблону, ведь иначе обратную связь нужно брать извне, и все быстродействие идет нафиг. Причем этот жесткий шаблон уже должен быть в компьютере. Но нет никакого смысла обучать жесткому шаблону потому как реальные задачи требуют адаптивности к меняющимуся профилю шаблона. Природная нейросеть поэтому вообще вся разом не адаптируется, а обучение строится как иерархия подсетей - отдельных распознавателей, на уровне которых как раз и допустима жесткость шаблона. Вот этот момент строители искусственных сетей вообще не просекают до сих пор, судя по общению здесь с участником - спецом по сеткам.

Короче, вся идея - совершенно бессмысленна в практическом плане, да и в теоретическом ничего не дает...

 



26.03.2013г. 18:15:37


p.s. Допускаю, что мое утверждение может быть порочно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
 
   SleepWalker список всех сообщенийПишет без лимита и ограничений - unlimited Качества SleepWalker, оцененные другими пользователями Оценок: 3 Род: Мужской Сообщений: 219  Сообщение № 11502 показать
ответ -только после авторизации

автор: nan сообщение 11500
Это прокатывает только адаптировать распознаватель к заранее заготовленную жесткому шаблону, ведь иначе обратную связь нужно брать извне, и все быстродействие идет нафиг.


Честно говоря не понял где ограничение. Просто при каждом изменении внешней среды будет запускаться перестройка структуры нейронной сети и адаптация весов. При этом ограничением не является ни размер сети, ни сложность ее структуры, ни сложность входных данных.

Нейронные сети тоже можно дообучать на вновь появившихся данных, кроме того существуют алгоритмы позволяющие создавать адаптируемые нейронные сети переменной структуры.

26.03.2013г. 20:50:17
 
  nan список всех сообщенийИмеет права полного администратора сайта - админ Качества nan, оцененные другими пользователями Оценок: 39 Род: Мужской Сообщений: 10989 E-Mail  Сообщение № 11508 показать
ответ -только после авторизации

ну как не понял?... если ошибка - результат сопоставления с реальностью при каждом изменении внешней среды, то на это нужно время (адаптивность в реальном масштабе времени) и перебор станет бесконечным по времени, и только если результат адпативности заранее как-то зафиксировать в том же вычислителе, чтобы не обращаясь к терминалам, просто что-то там перебирать, то задержек не будет. Но дело даже не в этом, а в полной недееспособности адаптивности по шаблону.

>>при каждом изменении внешней среды будет запускаться перестройка структуры нейронной сети и адаптация весов

вот этого-то и не требуется, достаточно просто зафиксировать текущий профиль активности на входе распознавания, что и делается в природных нейросетях. Никаких переборов не требуется, это - разовая операция.



27.03.2013г. 9:16:53


p.s. Допускаю, что мое утверждение может быть порочно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
 
Страницы: 1 2 3 ВСЕ 

Войти под своим ником или зарегистрироваться- авторизация

! Сообщение пропало?! посмотреть причины...

Написать простое сообщение (только текст)

Написать сообщение полноценным редактором



Последняя активность на сайте >>


Яндекс.Метрика