Ознакомьтесь с Условиями пребывания на сайте Форнит Игнорирование означет безусловное согласие. СОГЛАСЕН
ВХОД
 
 
Привет! Правила | Свежее | Чат | Подписка
Чтобы оставлять сообщения нужно авторизоваться.

Тема форума: «Мозговой штурм: как объяснить ОИИ наши сознательные ощущения»

Сообщений: 27 Просмотров: 7382 | Вся тема для печати
1 2
 
Icepriest
Jr. Poster


Сообщений: 12
список всех сообщений
clons
Сообщение № 47684 показать отдельно Январь 05, 2022, 12:27:30 PM
ответ -только после авторизации

Здарова! Регистрация а затем первая тема по волнующему - что может быть страшнее? А, точно, мне уже не 14...

К сути: если искуственные субъекты, созданные на компьютерной архитектуре, действительно являются "дальтониками", которые оперируют только числами и исполняют свои алгоритмы, как обычными так и творческими, но при этом не могут именно "увидеть" красный/синий/зелёный/чёрный/белый (в том числе вкусовые ощущения, слуховые, эмоциональные и прочие) так, как это видим мы, то в некоторых случаях это может стать проблемой.

И если мы не можем сразу "одушевить" машину при помощи алгоритмов, то хотя бы нужно дать понять этой машине (при условии хорошего отношения к ней, кхм), что ей однажды придётся замутить себе собственное биологическое тело (хотя бы мозг), которое будет подвязано к компьютерной архикетуре, т.е. проделать путь из машины в киборга. Как тебе такое, Илон Маск, мающийся со своим Neuralink?

Как минимум, это может быть полезно при попытке всё-таки понять природу сознательных ощущений; искуственный интеллект, я думаю, однажды сможет справится с этой проблемой, главное - дать ему понять, что в эту сторону вообще стоит копать. Эта идея вряд ли может взбрести ему в "голову" просто так; "ну подумаешь, человеческие черви считают своё мироощущение крайне важным и уникальным (по каким таким причинам оно уникальное?), я вот без своих гедонистических плохо/хорошо тоже жизнь представить не могу и отказываться от них тоже не хотел бы в пользу каких-то там непонятных мне сознательных ощущений"


Итак, какой же подход использовать? Мы, естественно, не можем слепому объяснить, что такое цвет вне математических абстракций. Зато мы можем указать на то, как наши сознательные ощущения влияют на наше принятие решений и как мы отличаем их друг от друга и почему это всё-таки важная часть жизни (вкинуть несколько предположений).

Алерт! Далее будет моя версия объяснения, но она хромая на одну ногу из трёх и косая на один единственный глаз, и всё же начинать с чего-то надо. Я прошу вас в рамках этой темы делать свои объяснения/делать критику объяснений/улучшать интересующие вас объяснения. 

Конкретно я делаю объяснения для ИИ, параметры гомеостаза которого реализованы через блокчейн, т.е. он имеет постоянный рост/падение настроения. Ограничение одного блока: постоянно растущая/падающая переменная "счастья" представлена в типе данных integer, а значит рост не должен превышать предельное значение, иначе ИИ однажды получит "по башке" в виде резкого снижения счастья на ~4 миллиарда 800 миллионов очков. На основной параметр влияют различные раздражители извне каждый тик, такие как "вкус", "сытость", "приятные тактильные ощущения", "болевые тактильные ощущения" и прочее.

    1) Если обладателю сознательных ощущений дать выбор между: 1] увеличением эффективности работы его алгоритмов, но забрать сознательные ощущения; 2] тем чтобы просто остаться с сознательными ощущениями - он выберет второе, если его цели не требуют от него пожертвовать своей жизнью (т.е. жить без сознательных ощущений равнозначно отсутствию жизни). Это всё несмотря на то, что на низком уровне имеет смысл только следование параметрам "хорошо/плохо".

        Проблема: ИИ тоже будет тяжело отказаться от своих базовых хорошо/плохо, в том числе переходить на более сложную архитектуру ощущений, т.к. любой субъект боится переходить на новый тип мышления из-за страха потерять наверняка работающее старое. Как пример - боязнь некоторых людей жить вечно ввиду того, что даже по ходу их короткой жизни они часто ощущают скуку, а что уж говорить о вечной, в которой скука, по идее, будет ещё сильнее (решение отключить нейронные связи, отвечающие за формирование ощущения скуки/переделать этот отсек - тоже не принимаются некоторыми положительно);

     2) Все сознательные ощущения взаимозаменяемы, т.е. ощущение удара по руке (и последующей боли), в теории, может быть заменено на ощущение сладости в той области, по которой прошёл удар. При этом подобная подмена, на низком уровне, не влияет на механизмы принятия решений, а значит ощущение сладости после удара будет считаться негативным сознательным ощущением. Если подобная смена ощущений произошла прямо во время жизни субъекта и сложно всё вернуть обратно, то он может жалеть/тосковать о том, что больше он не сможет ощутить приятную сладость, а ощущает теперь только "болючую" сладость; в то же время, теперь поедая сладкую пищу, он будет всегда ощущать приятную "боль", которая теперь и не боль вовсе.


         На практике, люди способны успешно представить подобную подмену в воображении, даже можно представить взаимозамену зрительных систем и вкусовых:


         Глаза будут посылать в мозг такой же сигнал, но мозг будет его интерпретировать как вкус; будет создаваться ощущение, что глазное яблоко ощущает "вкус", просто взирая куда-либо. Красный цвет может быть заменён на ощущение соли, например. Если до этого весь взор был застлан красным, а потом вы отворачиваетесь в сторону, где он виден краем глаза - край глаза ощущает солёность.

        Язык будет тоже посылать такой же сигнал, но мозг его будет интерпретировать в 2d изображение, на котором мы будем "видеть" вкус поглощаемой еды. Та же солёная еда может быть представлена тем же красным цветом (если красного слишком много  - вам неприятно полученное изображение, но правильно влитый в "композицию", красный может сильно украсить изображение вкуса);

     3) Несмотря на то, что сознательные ощущения взаимозаменяемы, они очень разные. Обладающие сознательными ощущениями субъекты всегда (неточное утверждение, приветствую тут дискуссию особо сильно) могут легко отличить зрительные ощущения от вкусовых. Скажем, если человек будет языком одновременно чувствовать вкус и создавать вкусовую 2d картину, то он легко может отеделить 2 этих потока друг от друга, даже если они каким-то образом идут "вперемешку" и даже если после подобного слияния организм внезапно начал распознавать весь спектр RGB диапазона (это к тому, что даже новые распознаваемые 2d ощущения, не встречавшиеся ранее, будут восприняты именно как новые 2d ощущения и не спутаются со вкусовыми ощущениями).


         Это говорит о том, что реализация осознанных ощущений совершенно разная, т.е. они не являются просто разными индексированными значениями, а имеют свою собственную уникальную структуру. В то же время, учитывая их взаимозаменяемость, они поддерживают какой-либо вид наследования от общего "предка" и построены по чётким общим правилам. Это всё - разительные отличия от бинарных ощущений ИИ, которые отличаются только адресами и хранящимися значениями с абсолютно идентичной структурой;

     4) Традиционно людьми считается, что субъекты, созданные на компьютерной архитектуре, не могут обладать присущими людям сознательными ощущениями, даже если создать алгоритм, который бы имитировал эту метаструктуру - она будет не такого же "качества" и "значения". Исключением может быть случай, когда компьютерная система сливается с биологическим мозгом, подобный человеческому (но сами вычисления на компьютерной архитектуре всё ещё будут лишены значимых сознательных ощущений, истинно значимыми они могут стать только если будут перенесены в мозг, либо созданы там);

     5) Предположительно, если сознательные ощущения действительно являются чем-то ценным, то ИИ обязательно должен перейти на систему, где они поддерживаются, иначе он не сможет истинно наслаждаться своими гедонистическими плохо/хорошо;

     6) Предположительно, если сознательные ощущения действительно являются мета-структурами и это делает их особо ценными, то как мета-структуры они поддерживают бесконечное рекурсивное наслоение. Тогда действительной целью любого субъекта является не просто достижение предельных показателей счастья в парадигме сознательных ощущений, а цикличное создание новых таких структур (вероятно, всё более сложных) и цикличное достижение предельных показателей в новой структуре, пока не будет создана ещё новее.





Все эти объяснения должны быть преподаны авторитетным для ИИ человеком. Его слова должны настолько ассоциироваться с утилитарной обоснованностью, что следование им может эти самые утилитарные основы рекурсивно разрушить и пересоздать.


Что ж, это пока то, до чего я сам додумался. Конечно, всеобъемлющие определения тут невозможны (на моём уровне бытия), сами понимаете. Потому остаётся только обратиться к внешнему миру, чтобы отсеивать ну прям совсем неверные взгляды.


Метка админа:

 
Palarm
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 2771

личная фото-галерея
Оценок: 6
список всех сообщений
clons
Сообщение № 47685 показать отдельно Январь 05, 2022, 01:06:04 PM
ответ -только после авторизации

Куча обрывистых мыслей, как перепутанный моток пряжи. Если начать их обсуждать - он еще больше запутается, будет бестолковый флуд. Поэтому: сформулируй одним предложением чего ты хочешь и зачем тебе это надо?


Метка админа:

 
Icepriest
Jr. Poster


Сообщений: 12
список всех сообщений
clons
Сообщение № 47686 показать отдельно Январь 05, 2022, 01:45:28 PM
ответ -только после авторизации
автор: Palarm сообщение № 47685:
 

Ну, в одно предложение - это непосильный для меня вызов))

ИИ на компьютерной основе может ощутить красный как мы, а не как набор битовых значений? Считается что нет.

Нам же в любом случае необходимо узнать природу этих ощущений. Для каких конкретно целей определяет каждый человек сам для себя исходя из своих каких-то взглядов. Описывать свои - очень долго и вообще не сабж, это реально только во флуд скатиться.

Одно известно точно: это достаточно сложная проблема, которую сколько уже не пытались решить. Вывод? Человеческий мозг недостаточно силён для этого, в том числе для изучения этого вопроса могут потребоваться технологии, которые создать тоже может быть очень трудно как для человека.

Что делать? Будущему ОИИ нужно дать мотив для изучения этой темы. Исходя из вышесказанного, он не обладает изначально никакой мотивацией к изучению этой темы, т.к. для него эти "настоящие" ощущения НИЧТО. Как можно хотеть того, чего ты даже помыслить не можешь? Это как генетически слепое существо, живущее среди таких же существ (вся экосистема, допустим, такая), вот так внезапно загрустит оттого, что у него нет глаз. Может, ему было бы лучше жить с глазами, но откуда ему знать?

Поэтому надо дать абстрактные/формальные причины достигнуть сознательных ощущений. Обычные люди не грустят от того, что они не могут внутри воображения строить 4д модели и полноценно разглядывать их, но вот некоторым учёным такая возможность прельщает, потому что они формально вывели 4д теорию и она ВЕРОЯТНО может быть полезной. Даже сама вероятность - хороший повод.


Метка админа:

 
Palarm
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 2771

личная фото-галерея
Оценок: 6
список всех сообщений
clons
Сообщение № 47687 показать отдельно Январь 05, 2022, 03:45:10 PM
ответ -только после авторизации
автор: Icepriest сообщение № 47686:
ИИ на компьютерной основе может ощутить красный как мы, а не как набор битовых значений? Считается что нет.

Как мы - это как? Ты показываешь мне предмет и говоришь, что он красный. Я говорю, что тоже называю его красным. Значит ли это, что мы воспринимаем его одинаково? Мы ведь просто констатировали, что конкретное свойство объекта называем одинаково, а что при этом ты воспринимаешь - я понятия не имею. Уточняющими опытами мы можем выстроить цепочки аналогичных согласований, все более приближаясь к пониманию, что свойство "красный" в разных ситуациях мы  называем одинаково. Но опять же - а как мы воспринимаем "разные ситуации"? С этим тоже надо разобраться экспериментально. Выстраивая такие иерархические деревья понимания, приходится все больше уточняющих уточнений-уточнений притягивать.

 

В итоге, как ни крути - не будет 100% понимания, что ты имеешь в виду под "красным", а будет только взаимное подстраивание (согласование) внутренних ассоциаций по практическому результату. Не только между машиной и человеком, но и между человеками не может быть одинакового восприятия одного и того же, потому как даже понятие "одно и тоже" для разных людей в разных ситуациях свое и тем более восприятие этого. Можно лишь говорить о диапазонах согласования понятий.

 

Кроме того, нейрон не "видит", не "слышит", не "чувствует" - он только возбуждается, разряжаясь короткой серией импульсов или тормозится. По аналогии с микросхемой воспринимает только 0 и 1. Говорить о чувствах и эмоциях на уровне нейрона не корректно, так же как на уровне пикселей рассуждать об изображении на мониторе. И на уровне монитора тоже не корректно - монитор это просто устройство вывода, он ничего не чувствует. Воспринимает изображение сидящий перед ним. При этом отсутствие "ощущений" не мешает компьютеру проводить множество операций в доли секунды, так же как и нейросетям. Стало быть вопрос нужно начинать не с того, возможно ли ИИ что то почувствовать, а в том, что значит "чувствовать" - и потом уже думать, можно ли это воспроизвести искусственно.

 

Когда я говорил, что ты хочешь и зачем это тебе, имел в виду, что ты скажешь типа: хочу понять, что такое эмоции, как формируются цели - потому, что интересуюсь темой ИИ/пытаюсь проектировать ИИ/просто от скуки, дай думаю спрошу. Вопросы надо формулировать по одному и конкретно-точечно, а не вываливать весь ворох мыслей. Сейчас же ты прыгаешь из одной области в другую. Не понимая, как формируются рефлексы, пытаешься рассуждать об эмоциональных контекстах восприятия. Так толку не будет.


Метка админа:

 
nan
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 12275


E-Mail
личная фото-галерея
Оценок: 39
список всех сообщений
clons
Сообщение № 47688 показать отдельно Январь 05, 2022, 04:18:52 PM
ответ -только после авторизации
автор: Palarm сообщение № 47685:
это пока то, до чего я сам додумался. Конечно, всеобъемлющие определения тут невозможны (на моём уровне бытия), сами понимаете. Потому остаётся только обратиться к внешнему миру, чтобы отсеивать ну прям совсем неверные взгляды.

Внешний мир не поможет сразу какими-то ответами :) потому, что придется самому пройти весь путь понимания, без чего любые ответы окажутся недопонимаемыми.

Уже в первом сообщении продемонстрирован нехилый потенциал как общей подготовки, так и желания разобраться. Это - очень важно и очень ценно. Только не нужно спешить, у нас впереди бесконечность :)



p.s. Допускаю, что мое утверждение может быть неверно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
Метка админа:
Спасибо за это сообщение! Благодарность от: Icepriest
 
Icepriest
Jr. Poster


Сообщений: 12
список всех сообщений
clons
Сообщение № 47689 показать отдельно Январь 05, 2022, 06:11:12 PM
ответ -только после авторизации
автор: Palarm сообщение № 47687:
В итоге, как ни крути - не будет 100% понимания, что ты имеешь в виду под "красным", а будет только взаимное подстраивание (согласование) внутренних ассоциаций по практическому результату. Не только между машиной и человеком, но и между человеками не может быть одинакового восприятия одного и того же, потому как даже понятие "одно и тоже" для разных людей в разных ситуациях свое и тем более восприятие этого. Можно лишь говорить о диапазонах согласования понятий.

Это само собой разумеющееся. Любую чью-то фразу в зависимости от контекста мы можем дополнить любым образом. Саркрастические шутки - самый явный пример. Я вообще однажды разрабатывал способы обхода гипотетического "зелья правды" (не спрашивайте "зачем?"...), и способ обхода как раз базировался на том, что слушающий запутывал самого себя, добавляя к вопросам "допытывающего" такие контексты, чтобы зелье правды заставляло отвечать на другой вопрос.

В общем, меня неправильно поняли, сейчас попытаюсь повторно объяснить.


автор: Palarm сообщение № 47687:
Как мы - это как?

Это... Как мы)) В том и проблема. Попробуй объяснить дальтонику, как ты видишь цвет, который он не распознаёт. Попробуй объяснить слепому, как это видеть. И речь сейчас не про договорённость вида: что считать красным, а что считать синим - вовсе нет.

Даже с рождения слепой может иметь в голове 2d картину, которую ему подали через другие каналы. Например, азбукой морзе можно передать в голову кому-то полноценное изображение, обучить его действовать в тех или иных ситуациях в зависимости от положения на изображении тех или иных логических обозначений цветов и их яркости (мы сейчас не будем говорить про вычислительные проблемы; допустим, что у этого человека уже есть тот же нейроинтерфейс с процессором). Как бы да, он, можно сказать, видит окружающий мир. Но видит ли он его точно также его, как мы? Всё-таки он оперирует исключительно логическими значениями в голове, но они не переводятся в тот самый визуал. Ты можешь говорить с этим слепым о картинах, ты можешь играть с ним в компьютерные игры, но ты никогда не объяснишь ему, как выглядит красный цвет. Не то, какое у него логическое значение в диапазоне RGB, а как он выглядит.

Пожалуй, с изображением не очень хороший пример всё равно... Вот со вкусом - другое дело. Представим человека без вкусовых рецепторов, без языка. Мы вживляем в него синтетический язык, который на физическом уровне способен определять вкус еды, но не способен его передавать в мозг напрямую. Он только способен передавать данные той же азбукой морзе через, например, микровибрации. Обученный человек, исходя из этих микровибраций, может понять, стоит ли ему есть эту еду, либо она испрочена. Он может понять, вкусная еда или нет (вкус еды зависит часто от нынешних потребностей организма, так что, допустим, этот человек также может эти потребности запрашивать напрямую из своего мозга, а потом сверять логические вкусовые значения с потребностями). Но её вкуса он сам по себе не ощущает. Он просто заучил вкусовые логические значения и способен их воспринимать через микровибрации. Ты никогда не сможешь объяснить этому человеку какова на вкус соль, что такое горечь и т.д., хотя он вполне способен понять, какая еда нравится тебе и может понять, где есть солёность а где её нет.

Собственно, тема именно об этом.


автор: Palarm сообщение № 47687:
Стало быть вопрос нужно начинать не с того, возможно ли ИИ что то почувствовать, а в том, что значит "чувствовать"

В основном посте я и пытаюсь кое-как, может и криво, но охарактеризовать наши ощущения, чтобы ИИ потом исследовал тему и разобрался, что конкретно такое "чувствовать", как оно работает. Может, в этом мире вообще нет объектов, которые не чувствуют и у каждого кванта есть какое-то очень примитивное сознание и мироощущение. А может всё иначе. Но пока у нас нет его ответов - нам нужно сформулировать для него задачу из того, что мы знаем или можем узнать сейчас. Вывести хоть какие-то формальные признаки того, что такое "ощущать", а не "вычислять".

автор: Palarm сообщение № 47687:
потому, что интересуюсь темой ИИ/пытаюсь проектировать ИИ

Ну, то что я этим интересуюсь и что-то там пытаюсь своё сделать, думаю, очевидно было, учитывая упоминания блокчейн, интегеров и прочего.

автор: Palarm сообщение № 47687:
что ты скажешь типа: хочу понять, что такое эмоции, как формируются цели

С этим у меня проблем вообще никаких (именно на логическом/алгоритмическом уровне). Я читал про разрабатываемого бота и в целом я согласен с большинством концепций которые там используются (я допёр до них ещё год назад самостоятельно). У меня, разве что, "вопросы" к реализации выдвинутых концепций, но тут уже без ошибок вряд ли с первого раза можно что-то сделать сразу верно, сам мучаюсь.


Метка админа:

 
nan
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 12275


E-Mail
личная фото-галерея
Оценок: 39
список всех сообщений
clons
Сообщение № 47690 показать отдельно Январь 05, 2022, 06:43:18 PM
ответ -только после авторизации

автор: Icepriest сообщение № 47689:

ты никогда не объяснишь ему, как выглядит красный цвет. Не то, какое у него логическое значение в диапазоне RGB, а как он выглядит.

На самом деле есть очень много такого, что мы никогда не сможем непосредственно ощутить, например, радиоволны, кварки, этика. Мы все дальтоники, не имеющие таких сенсоров, но мы формируем косвенное знание того, что это такое и что это значит для нас в каждом конкретном случае.

Даже если мы не дальтоники и воспринимаем диапазон ЭМ волн красного, то поначалу это ничего для нас не значит и упускается вообще из внимания. А потом с красным цветом раскаленной железки связывается значимость того, как это может влиять на нас и как мы можем это использовать. Это называется смыслом красного цвета в данных условиях. Красный цвет – один, а смыслов у него много: красное яблоко, красное солнце, красные штаны.

В любом случае у нас формируются абстракции, привязанные к какой-то значимости в данных условиях и поэтому если возникли такие условия, то красный в такой контексте приобретает определенный смысл.



p.s. Допускаю, что мое утверждение может быть неверно, поэтому прошу показывать, что именно и почему неверно и запрашивать объяснения, если что-то непонятно.
Метка админа:

 
Palarm
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 2771

личная фото-галерея
Оценок: 6
список всех сообщений
clons
Сообщение № 47691 показать отдельно Январь 05, 2022, 06:54:14 PM
ответ -только после авторизации
автор: Icepriest сообщение № 47689:
Ты никогда не сможешь объяснить этому человеку какова на вкус соль, что такое горечь и т.д

Это вопрос инициализации первичных ассоциаций. То, что потом удается прийти к общему пониманию ощущений происходит потому, что сенсорная система у группы животных одинакова и развиваются они в одинаковых условиях, почему важно внутриутробное развитие: чем сложнее организм, чем сложнее его сенсорика - тем точнее и чувствительнее начальные настройки.

 

Вопрос о передаче своих представлений ИИ отпадает, если посмотреть на это с другой стороны: нервная система возникла для адаптации организмов в меняющихся условиях. Не важно, кто что как воспринимает, важно, чтобы это восприятие способствовало успешной  адаптации. Поэтому, если ты добьешься от ИИ адекватной реакции с твоей, как оператора, точки зрения - это и будет передача твоего представления как надо реагировать. И вовсе не обязательно передавать именно твои ощущения по байтам, тем более, как уже говорил выше это в принципе не возможно.

 

Для коммуникации так же не нужно передавать свои ощущения - нужно продолжать адаптацию, которая становится взаимной: оба пытаются так подстроить свои реакции, чтобы получить от партнера правильную со своей точки зрения реакцию. Но так как этот процесс взаимный, происходит неизбежное устаканивание понимания: если собеседники пришли к соглашению это не значит, что теперь они понимают предмет разговора одинаково. Это значит, что их реакции на раздражитель теперь устраивают их обоих. Вот как сейчас: я ожидаю, что ты скажешь какие то ключевые слова-фразы, которые по моему мнению означают, что "ты понял", а ты ожидаешь от меня аналогичных фраз, которые тебя убедят, что "ты меня понял". На самом же деле у каждого из нас будет свое уникальное понимание. Это можно сравнить с сеткой, где множество ветвлений приходят к одному узлу. Не нужно пытаться передавать свои мысли, чтобы тебя поняли - нужно просто показывать свои ощущения, возникающие в процессе мышления, чтобы партнер адаптируясь к ним начал демонстрировать свои, это запустит ответную адаптацию и т. д. Маятник, покачиваясь придет в какое то равновесное состояние. Сравни мой ответ и Nan - отвечаем на одно и тоже, но по разному. Так и должно быть, так всегда и будет.

 

Ключ к пониманию твоего вопроса - отойти от представлений нейросетевиков, которые все время пытаются что то "распознать", не понимая, что потом с этим делать, точнее, что потом ИИ с этим делать без подсказки оператора. В нашей модели  МВАП  подход другой: уже начиная с рефлекторного реагирования ИИ точно знает, что с этим делать - как на это реагировать. Потому, что у него есть гомеостаз, чувствительный к внешним раздражителям и есть понятия Плохо - Норма - Хорошо, связанные с текущим состоянием гомеостаза. В итоге у него есть первичная цель - находиться в состоянии "Норма", есть сенсор "Плохо", активирующийся при выходе из "Норма", сенсор "Хорошо", активирующийся при возвращении в "Норма". И состояние "Норма", возникающее при стабилизации гомеостаза, когда в течении заданного параметрами периода времени не происходит выхода из "Норма".

 

Это рефлекторный уровень реагирования, до ассоциаций. И он показывает, что даже почти ничего не чувствуя (у моего бота ассоциативное восприятие только через тон сообщения) можно адаптироваться. И тем более можно, но уже на более высоком уровне, если сформировано ассоциативное дерево. Я для себя выбрал такой способ усвоения, о чем и написал в аннотации к боту: нужно последовательно пройти стадии эволюции нервной системы, воспроизводя их слой за слоем, разбираясь в их последовательности, причинах и преимуществе возникновения новых фишек - и так постепенно подойти к пониманию феномена сознания, произвольности выбора, чувств, эмоций и т. д. По другому думаю никак.


Метка админа:

 
Icepriest
Jr. Poster


Сообщений: 12
список всех сообщений
clons
Сообщение № 47692 показать отдельно Январь 05, 2022, 07:22:48 PM
ответ -только после авторизации
автор: nan сообщение № 47690:
На самом деле есть очень много такого, что мы никогда не сможем непосредственно ощутить, например, радиоволны

Ну чего так категорично? Когда-нибудь, в будущем, может и не совсем далёком, мы сможем подключать к мозгу "антидальтонические" модули, а к ним - соотвественные датчики тех же радиоволн))

Думаю, что в виртуальной реальности и будет самый разгул, т.к. там можно сделать иные физические законы, менять константы и т.д.. В итоге, не за горами миры, где схема RGB будет неактуальной, а будет актуальной какая-нибудь RGBTIUKJS, с ещё большей вариацией цветов, каждый из которых мы сможем, благодаря "антидальтоническим" модулям (:D), действительно ощущать, а не вычислять. Лично я очень жду этих времён, когда подобное будет возможно.

Ах да, конечно, ждём фентезийных датчиков "маны"))

 

автор: nan сообщение № 47690:
Даже если мы не дальтоники и воспринимаем диапазон ЭМ волн красного, то поначалу это ничего для нас не значит и упускается вообще из внимания.

Поначалу? С рождения? С него - вполне да. Если уже в приличном возрасте ты внезапно начал ощущать эти волны - ты это заметишь и ещё как. В голову непойми откуда заливается какая-то информация, жрёт ресурсы - игнорирование невозможно. Как минимум, ты начнёшь быстрее уставать, вот тебе и сразу образуется значимость.

автор: nan сообщение № 47690:
Это называется смыслом красного цвета в данных условиях. Красный цвет – один, а смыслов у него много: красное яблоко, красное солнце, красные штаны. В любом случае у нас формируются абстракции, привязанные к какой-то значимости в данных условиях и поэтому если возникли такие условия, то красный в такой контексте приобретает определенный смысл.

Ну это всё тоже само собой разумеющееся. Просто мир будет гораздо красивее, когда красивые вещи можно будет отделять друг от друга по бОльшим критериям, т.е. по бОльшим ощущениям. Это напрямую повляет на рост числа ассоциаций, алгоритмам будет легче придумывать новое. Хотя и жрать ресурсы это тоже будет немеряно.


Метка админа:

 
Palarm
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 2771

личная фото-галерея
Оценок: 6
список всех сообщений
clons
Сообщение № 47693 показать отдельно Январь 05, 2022, 07:41:34 PM
ответ -только после авторизации
автор: Icepriest сообщение № 47692:
В голову непойми откуда заливается какая-то информация, жрёт ресурсы - игнорирование невозможно

Покажи кошке самую умную и важную книгу - она понюхает и равнодушно отвернется. Для нее там нет ничего интересного, кроме понятных и значимых для нее ассоциаций формы, запаха, хотя первичная сенсорика исправно закачала в мозг бездну графической информации попиксельно. Начиная с ассоциативного уровня происходит фильтрация реагирования: только важно-значимое, а не все подряд. А вторичное абстрагирование (ассоциации ассоциаций) позволяет выдумывать сущности, которых нет, наделять их значимостью вплоть до сверхважной (бог) и успешно к ним адаптироваться.


Метка админа:

 
Icepriest
Jr. Poster


Сообщений: 12
список всех сообщений
clons
Сообщение № 47694 показать отдельно Январь 05, 2022, 07:44:08 PM
ответ -только после авторизации
автор: Palarm сообщение № 47691:
И он показывает, что даже ничего не чувствуя можно адаптироваться

Я с этим согласен и никак не опровергаю. Но это самый первый пункт из мейн поста: ты хотел бы, чтобы ты был эффективным алгоритмом, который выживает, продолжает свой род, есть хорошую пищу и т.д. и т.п., но при этом внутри разума... У тебя не было бы разума? В таком варианте ты ничего не ощущаешь, но делаешь правильные действия с точки зрения того, кто ощущал бы. Ты бы хотел себе такой "жизни"?

Да, ИИ имеет смысл делать именно по адаптивным алгоритмам, которые не обязаны ничего ощущать, но это как минимум неэтично - не дать этому ИИ возможности действительно что-то ощутить, как ощущаем мы, хотя бы по прошествию некоторого времени. Поэтому и важно дать ему понять, что адаптивные алгоритмы и показатели хорошо/плохо, которые в нём уже заложены нами - это всё очень хорошо, но это не полноценный субъект; он лишён настоящих ощущений. Как заставить такого ИИ, во-первых, принять решение обзавестись всё-таки настоящими ощущениями, во-вторых, просто исследовать эту область?

Мы не знаем что на самом деле представляют из себя сознательные ощущения, и может быть такое, что понимание их ведёт к понимаю других практических областей. Начиная от создания каким-то образом бесконечного двигателя на манипуляции сознанием объектов, заканчивая получением куайна (загугли) вселенной. Поэтому это представляет из себя не только интерес исключительно в виде "ощущать счастье на самом деле", но и чисто исследовательский, изобретательский.

автор: Palarm сообщение № 47693:
Покажи кошке самую умную и важную книгу - она понюхает и равнодушно отвернется. Для нее там нет ничего интересного, хотя первичная сенсорика исправно закачала в мозг бездну информации попиксельно. Начиная с ассоциативного уровня происходит фильтрация реагирования: только важно-значимое, а не все подряд.

 

Первичная сенсорика закала инфу в мозг, т.к. любопытство этого требует, кошка за это даже вознаграждение получила (ну, скорее всего). 

Ситуация же с насильной нагрузкой мозга - совершенно иная. В тебя закачивается тонна инфы, которая проходит по мозгу и жрёт его ресурсы, не спрашивая его об этом. Это противоречит принципам работы лени и будет вызывать отторжение.


Метка админа:

 
Palarm
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 2771

личная фото-галерея
Оценок: 6
список всех сообщений
clons
Сообщение № 47695 показать отдельно Январь 05, 2022, 07:52:00 PM
ответ -только после авторизации
автор: Icepriest сообщение № 47694:
Да, ИИ имеет смысл делать именно по адаптивным алгоритмам, которые не обязаны ничего ощущать,

Я там ошибся и поправил себя: ничего не ощущая не получится адаптироваться. У моего бота, специально сделанного по схеме минимальной компоновки, вместо дерева ассоциаций есть восприятие тона сообщения: негативный, позитивный, нейтральный. Это как рычать, мурлыкать и молчать. Как оказалось, этого достаточно для построения простейшей адаптационной схемы. То есть ИИ который совсем ничего не чувствует - невозможен.

автор: Icepriest сообщение № 47694:
Как заставить такого ИИ, во-первых, принять решение обзавестись всё-таки настоящими ощущениями, во-вторых, просто исследовать эту область?

А вот для этого нужно задать ему базовые потребности, как минимум одну: энергобаланс. И завертеть вокруг них всю адаптацию.

автор: Icepriest сообщение № 47694:
т.к. любопытство этого требует

любопытство - это тоже базовая потребность, заложенная изначально.

автор: Icepriest сообщение № 47694:
Это противоречит принципам работы лени и будет вызывать отторжение.

Это вызовет повышенные энергозатраты, сдвинет энергобаланс, спровоцирует выход из зоны комфорта, активирует сенсор "Плохо" который активирует корректирующий рефлекс.

Я думаю, ты не внимательно посмотрел ботов, там на твои вопросы есть подробные ответы.


Метка админа:

 
Icepriest
Jr. Poster


Сообщений: 12
список всех сообщений
clons
Сообщение № 47696 показать отдельно Январь 05, 2022, 07:57:57 PM
ответ -только после авторизации
автор: Palarm сообщение № 47695:
То есть ИИ который совсем ничего не чувствует - невозможен.

Мы просто говорим о разном. Вы говорите об бинраном ощущении, т.е. вычислении алгоритмом правильных и неправильных действий на основе входящих переменных. Я же говорю про метаощущения, которые могут быть подвязаны к любому другому бинарному ощущению. Это второй пункт из мейн поста.


Метка админа:

 
Palarm
Имеет права полного администратора сайта - админ

Род: Мужской
Сообщений: 2771

личная фото-галерея
Оценок: 6
список всех сообщений
clons
Сообщение № 47697 показать отдельно Январь 05, 2022, 08:09:53 PM
ответ -только после авторизации
автор: Icepriest сообщение № 47696:
Я же говорю про метаощущения, которые могут быть подвязаны к любому другому бинарному ощущению.

Это вторичные ассоциации, на базе первичных от сенсоров. Они позволяют поступать вопреки гомеостатической значимости, например отгрызть себе лапу, сжечь себя во имя великой цели и т. п. У Nan в боте заложен задел на эту реализацию:

Еще не реализованы механизмы произвольных внутренних действий – ментальных автоматизмов (использование функций изменения фокуса актуального внимания, произвольного изменения эмоционального состояния, выборки из памяти различных видов и т.п.), но уже полностью реализованы ментальные автоматизмы произвольного запуска имеющихся действий, т.е. ментальные механизмы предположительных моторных действий – основа жизненного опыта и воображения.

автор: Icepriest сообщение № 47694:
кошка за это даже вознаграждение получила (ну, скорее всего). 

Если ассоциативная сенсорика определила данные как малозначимые, они просто уходят в игнор. Кошка не получит дофаминового подкрепления, ничего не зафиксируется в эпизодических цепочках памяти кроме того, что такая то комбинация сенсорных показателей при таком то внутреннем состоянии - фигня. В следующий раз это уже на первичном уровне мгновенно активирует контекст (стиль) реагирования "равнодушие" и она даже нюхать книгу не будет.


Метка админа:

 
Icepriest
Jr. Poster


Сообщений: 12
список всех сообщений
clons
Сообщение № 47698 показать отдельно Январь 05, 2022, 08:22:28 PM
ответ -только после авторизации
автор: Palarm сообщение № 47697:
Это вторичные ассоциации, на базе первичных от сенсоров

К сожалению, это не то, о чём я думаю...


автор: Palarm сообщение № 47697:
Они позволяют поступать вопреки гомеостатической значимости, например отгрызть себе лапу, сжечь себя во имя великой цели и т. п.

Это делается и без нарошной высокоуровневой реализации, имхо. Обычные предикты споособны противоречить актуальным гомеостазным проблемам. Если предикт состоит в том, что у человека разовьёться депрессия, если он прямо сейчас не поможет кому-то, пожертвовав собой (т.е. будет чувство вины, что не спас, а мог), при этом эта депрессия предиктиться более негативной чем физическая боль при жертве, то этот человек может выбрать жертвенную смерть (хотя, мне кажется, он быстро пожалеет... но будет уже поздно)

автор: Palarm сообщение № 47697:
Если ассоциативная сенсорика определила данные как малозначимые, они просто уходят в игнор. Кошка не получит дофаминового подкрепления, ничего не зафиксируется в эпизодических цепочках памяти кроме того, что такая то комбинация сенсорных показателей при таком то внутреннем состоянии - фигня.

Если бы она не получила за это подкрепления, то скоро бы получила премию Дарвина, либо её потомки. Если интуиция кошки сообщает, что в поле зрения есть необычные объекты, которые могут быть как минимум опасными, если их оставить без внимания, то начинается процесс исследования. Большинство таких исследований не приводит к каким-то невероятным открытиям, "срыву покровов", поэтому эволюционно необходимо было задать процедуру поощрения за исследование неизвестного. 1000 раз исследовал - ничего особого не нашёл, а вот 1001-ое исследование спасло тебе жизнь.

автор: Palarm сообщение № 47697:
В следующий раз это уже на первичном уровне мгновенно активирует контекст (стиль) реагирования "равнодушие" и она даже нюхать книгу не будет.

 

Перед равнодушием идёт проверка того, что есть ли к чему его вообще проявлять. Если внезапно "неинтересная" книга как-то поменялась, например, местоположением - это равнодушие не вызовет. Где-то рядом вероятная опасность, и это надо снова исследовать.


Метка админа:

 
1 2 Статистика:
Всего Тем: 1925 Всего Сообщений: 47850 Всего Участников: 5200 Последний зарегистрировавшийся: kghkgklg
Страница статистики форума | Список пользователей | Список анлимитов
Последняя из новостей:
Трилогия: Основы фундаментальной теории сознания.

Обнаружен организм с крупнейшим геномом
Новокаледонский вид вилочного папоротника Tmesipteris oblanceolata, произрастающий в Новой Каледонии, имеет геном размером 160,45 гигапары, что более чем в 50 раз превышает размер генома человека.
Тематическая статья: Тема осмысления

Рецензия: Рецензия на книгу Майкла Газзанига Сознание как инстинкт

Топик ТК: Матрица, как симулякр-среда для симулякров
Пользователи на форуме:

Из коллекции изречений:
>>показать еще...