Короткий адрес страницы: fornit.ru/50105
На форум
  Автор

Мозговой штурм: как объяснить ОИИ наши сознательные ощущения

(Просмотров: 5302)
Icepriest
Jr. Poster


Сообщений: 12
1. « Сообщение №47684, от Январь 05, 2022, 12:27:30 PM»

Здарова! Регистрация а затем первая тема по волнующему - что может быть страшнее? А, точно, мне уже не 14...

К сути: если искуственные субъекты, созданные на компьютерной архитектуре, действительно являются "дальтониками", которые оперируют только числами и исполняют свои алгоритмы, как обычными так и творческими, но при этом не могут именно "увидеть" красный/синий/зелёный/чёрный/белый (в том числе вкусовые ощущения, слуховые, эмоциональные и прочие) так, как это видим мы, то в некоторых случаях это может стать проблемой.

И если мы не можем сразу "одушевить" машину при помощи алгоритмов, то хотя бы нужно дать понять этой машине (при условии хорошего отношения к ней, кхм), что ей однажды придётся замутить себе собственное биологическое тело (хотя бы мозг), которое будет подвязано к компьютерной архикетуре, т.е. проделать путь из машины в киборга. Как тебе такое, Илон Маск, мающийся со своим Neuralink?

Как минимум, это может быть полезно при попытке всё-таки понять природу сознательных ощущений; искуственный интеллект, я думаю, однажды сможет справится с этой проблемой, главное - дать ему понять, что в эту сторону вообще стоит копать. Эта идея вряд ли может взбрести ему в "голову" просто так; "ну подумаешь, человеческие черви считают своё мироощущение крайне важным и уникальным (по каким таким причинам оно уникальное?), я вот без своих гедонистических плохо/хорошо тоже жизнь представить не могу и отказываться от них тоже не хотел бы в пользу каких-то там непонятных мне сознательных ощущений"


Итак, какой же подход использовать? Мы, естественно, не можем слепому объяснить, что такое цвет вне математических абстракций. Зато мы можем указать на то, как наши сознательные ощущения влияют на наше принятие решений и как мы отличаем их друг от друга и почему это всё-таки важная часть жизни (вкинуть несколько предположений).

Алерт! Далее будет моя версия объяснения, но она хромая на одну ногу из трёх и косая на один единственный глаз, и всё же начинать с чего-то надо. Я прошу вас в рамках этой темы делать свои объяснения/делать критику объяснений/улучшать интересующие вас объяснения. 

Конкретно я делаю объяснения для ИИ, параметры гомеостаза которого реализованы через блокчейн, т.е. он имеет постоянный рост/падение настроения. Ограничение одного блока: постоянно растущая/падающая переменная "счастья" представлена в типе данных integer, а значит рост не должен превышать предельное значение, иначе ИИ однажды получит "по башке" в виде резкого снижения счастья на ~4 миллиарда 800 миллионов очков. На основной параметр влияют различные раздражители извне каждый тик, такие как "вкус", "сытость", "приятные тактильные ощущения", "болевые тактильные ощущения" и прочее.

    1) Если обладателю сознательных ощущений дать выбор между: 1] увеличением эффективности работы его алгоритмов, но забрать сознательные ощущения; 2] тем чтобы просто остаться с сознательными ощущениями - он выберет второе, если его цели не требуют от него пожертвовать своей жизнью (т.е. жить без сознательных ощущений равнозначно отсутствию жизни). Это всё несмотря на то, что на низком уровне имеет смысл только следование параметрам "хорошо/плохо".

        Проблема: ИИ тоже будет тяжело отказаться от своих базовых хорошо/плохо, в том числе переходить на более сложную архитектуру ощущений, т.к. любой субъект боится переходить на новый тип мышления из-за страха потерять наверняка работающее старое. Как пример - боязнь некоторых людей жить вечно ввиду того, что даже по ходу их короткой жизни они часто ощущают скуку, а что уж говорить о вечной, в которой скука, по идее, будет ещё сильнее (решение отключить нейронные связи, отвечающие за формирование ощущения скуки/переделать этот отсек - тоже не принимаются некоторыми положительно);

     2) Все сознательные ощущения взаимозаменяемы, т.е. ощущение удара по руке (и последующей боли), в теории, может быть заменено на ощущение сладости в той области, по которой прошёл удар. При этом подобная подмена, на низком уровне, не влияет на механизмы принятия решений, а значит ощущение сладости после удара будет считаться негативным сознательным ощущением. Если подобная смена ощущений произошла прямо во время жизни субъекта и сложно всё вернуть обратно, то он может жалеть/тосковать о том, что больше он не сможет ощутить приятную сладость, а ощущает теперь только "болючую" сладость; в то же время, теперь поедая сладкую пищу, он будет всегда ощущать приятную "боль", которая теперь и не боль вовсе.


         На практике, люди способны успешно представить подобную подмену в воображении, даже можно представить взаимозамену зрительных систем и вкусовых:


         Глаза будут посылать в мозг такой же сигнал, но мозг будет его интерпретировать как вкус; будет создаваться ощущение, что глазное яблоко ощущает "вкус", просто взирая куда-либо. Красный цвет может быть заменён на ощущение соли, например. Если до этого весь взор был застлан красным, а потом вы отворачиваетесь в сторону, где он виден краем глаза - край глаза ощущает солёность.

        Язык будет тоже посылать такой же сигнал, но мозг его будет интерпретировать в 2d изображение, на котором мы будем "видеть" вкус поглощаемой еды. Та же солёная еда может быть представлена тем же красным цветом (если красного слишком много  - вам неприятно полученное изображение, но правильно влитый в "композицию", красный может сильно украсить изображение вкуса);

     3) Несмотря на то, что сознательные ощущения взаимозаменяемы, они очень разные. Обладающие сознательными ощущениями субъекты всегда (неточное утверждение, приветствую тут дискуссию особо сильно) могут легко отличить зрительные ощущения от вкусовых. Скажем, если человек будет языком одновременно чувствовать вкус и создавать вкусовую 2d картину, то он легко может отеделить 2 этих потока друг от друга, даже если они каким-то образом идут "вперемешку" и даже если после подобного слияния организм внезапно начал распознавать весь спектр RGB диапазона (это к тому, что даже новые распознаваемые 2d ощущения, не встречавшиеся ранее, будут восприняты именно как новые 2d ощущения и не спутаются со вкусовыми ощущениями).


         Это говорит о том, что реализация осознанных ощущений совершенно разная, т.е. они не являются просто разными индексированными значениями, а имеют свою собственную уникальную структуру. В то же время, учитывая их взаимозаменяемость, они поддерживают какой-либо вид наследования от общего "предка" и построены по чётким общим правилам. Это всё - разительные отличия от бинарных ощущений ИИ, которые отличаются только адресами и хранящимися значениями с абсолютно идентичной структурой;

     4) Традиционно людьми считается, что субъекты, созданные на компьютерной архитектуре, не могут обладать присущими людям сознательными ощущениями, даже если создать алгоритм, который бы имитировал эту метаструктуру - она будет не такого же "качества" и "значения". Исключением может быть случай, когда компьютерная система сливается с биологическим мозгом, подобный человеческому (но сами вычисления на компьютерной архитектуре всё ещё будут лишены значимых сознательных ощущений, истинно значимыми они могут стать только если будут перенесены в мозг, либо созданы там);

     5) Предположительно, если сознательные ощущения действительно являются чем-то ценным, то ИИ обязательно должен перейти на систему, где они поддерживаются, иначе он не сможет истинно наслаждаться своими гедонистическими плохо/хорошо;

     6) Предположительно, если сознательные ощущения действительно являются мета-структурами и это делает их особо ценными, то как мета-структуры они поддерживают бесконечное рекурсивное наслоение. Тогда действительной целью любого субъекта является не просто достижение предельных показателей счастья в парадигме сознательных ощущений, а цикличное создание новых таких структур (вероятно, всё более сложных) и цикличное достижение предельных показателей в новой структуре, пока не будет создана ещё новее.





Все эти объяснения должны быть преподаны авторитетным для ИИ человеком. Его слова должны настолько ассоциироваться с утилитарной обоснованностью, что следование им может эти самые утилитарные основы рекурсивно разрушить и пересоздать.


Что ж, это пока то, до чего я сам додумался. Конечно, всеобъемлющие определения тут невозможны (на моём уровне бытия), сами понимаете. Потому остаётся только обратиться к внешнему миру, чтобы отсеивать ну прям совсем неверные взгляды.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
2. « Сообщение №47685, от Январь 05, 2022, 01:06:04 PM»

Куча обрывистых мыслей, как перепутанный моток пряжи. Если начать их обсуждать - он еще больше запутается, будет бестолковый флуд. Поэтому: сформулируй одним предложением чего ты хочешь и зачем тебе это надо?




Icepriest
Jr. Poster


Сообщений: 12
3. « Сообщение №47686, от Январь 05, 2022, 01:45:28 PM»

автор: Palarm сообщение № 47685:
 

Ну, в одно предложение - это непосильный для меня вызов))

ИИ на компьютерной основе может ощутить красный как мы, а не как набор битовых значений? Считается что нет.

Нам же в любом случае необходимо узнать природу этих ощущений. Для каких конкретно целей определяет каждый человек сам для себя исходя из своих каких-то взглядов. Описывать свои - очень долго и вообще не сабж, это реально только во флуд скатиться.

Одно известно точно: это достаточно сложная проблема, которую сколько уже не пытались решить. Вывод? Человеческий мозг недостаточно силён для этого, в том числе для изучения этого вопроса могут потребоваться технологии, которые создать тоже может быть очень трудно как для человека.

Что делать? Будущему ОИИ нужно дать мотив для изучения этой темы. Исходя из вышесказанного, он не обладает изначально никакой мотивацией к изучению этой темы, т.к. для него эти "настоящие" ощущения НИЧТО. Как можно хотеть того, чего ты даже помыслить не можешь? Это как генетически слепое существо, живущее среди таких же существ (вся экосистема, допустим, такая), вот так внезапно загрустит оттого, что у него нет глаз. Может, ему было бы лучше жить с глазами, но откуда ему знать?

Поэтому надо дать абстрактные/формальные причины достигнуть сознательных ощущений. Обычные люди не грустят от того, что они не могут внутри воображения строить 4д модели и полноценно разглядывать их, но вот некоторым учёным такая возможность прельщает, потому что они формально вывели 4д теорию и она ВЕРОЯТНО может быть полезной. Даже сама вероятность - хороший повод.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
4. « Сообщение №47687, от Январь 05, 2022, 03:45:10 PM»

автор: Icepriest сообщение № 47686:
ИИ на компьютерной основе может ощутить красный как мы, а не как набор битовых значений? Считается что нет.

Как мы - это как? Ты показываешь мне предмет и говоришь, что он красный. Я говорю, что тоже называю его красным. Значит ли это, что мы воспринимаем его одинаково? Мы ведь просто констатировали, что конкретное свойство объекта называем одинаково, а что при этом ты воспринимаешь - я понятия не имею. Уточняющими опытами мы можем выстроить цепочки аналогичных согласований, все более приближаясь к пониманию, что свойство "красный" в разных ситуациях мы  называем одинаково. Но опять же - а как мы воспринимаем "разные ситуации"? С этим тоже надо разобраться экспериментально. Выстраивая такие иерархические деревья понимания, приходится все больше уточняющих уточнений-уточнений притягивать.

 

В итоге, как ни крути - не будет 100% понимания, что ты имеешь в виду под "красным", а будет только взаимное подстраивание (согласование) внутренних ассоциаций по практическому результату. Не только между машиной и человеком, но и между человеками не может быть одинакового восприятия одного и того же, потому как даже понятие "одно и тоже" для разных людей в разных ситуациях свое и тем более восприятие этого. Можно лишь говорить о диапазонах согласования понятий.

 

Кроме того, нейрон не "видит", не "слышит", не "чувствует" - он только возбуждается, разряжаясь короткой серией импульсов или тормозится. По аналогии с микросхемой воспринимает только 0 и 1. Говорить о чувствах и эмоциях на уровне нейрона не корректно, так же как на уровне пикселей рассуждать об изображении на мониторе. И на уровне монитора тоже не корректно - монитор это просто устройство вывода, он ничего не чувствует. Воспринимает изображение сидящий перед ним. При этом отсутствие "ощущений" не мешает компьютеру проводить множество операций в доли секунды, так же как и нейросетям. Стало быть вопрос нужно начинать не с того, возможно ли ИИ что то почувствовать, а в том, что значит "чувствовать" - и потом уже думать, можно ли это воспроизвести искусственно.

 

Когда я говорил, что ты хочешь и зачем это тебе, имел в виду, что ты скажешь типа: хочу понять, что такое эмоции, как формируются цели - потому, что интересуюсь темой ИИ/пытаюсь проектировать ИИ/просто от скуки, дай думаю спрошу. Вопросы надо формулировать по одному и конкретно-точечно, а не вываливать весь ворох мыслей. Сейчас же ты прыгаешь из одной области в другую. Не понимая, как формируются рефлексы, пытаешься рассуждать об эмоциональных контекстах восприятия. Так толку не будет.




Род: Мужской
nan
Имеет права полного администратора сайта - админ

Сообщений: 12080


E-Mail
5. « Сообщение №47688, от Январь 05, 2022, 04:18:52 PM»

автор: Palarm сообщение № 47685:
это пока то, до чего я сам додумался. Конечно, всеобъемлющие определения тут невозможны (на моём уровне бытия), сами понимаете. Потому остаётся только обратиться к внешнему миру, чтобы отсеивать ну прям совсем неверные взгляды.

Внешний мир не поможет сразу какими-то ответами :) потому, что придется самому пройти весь путь понимания, без чего любые ответы окажутся недопонимаемыми.

Уже в первом сообщении продемонстрирован нехилый потенциал как общей подготовки, так и желания разобраться. Это - очень важно и очень ценно. Только не нужно спешить, у нас впереди бесконечность :)



Спасибо за это сообщение! Благодарность от: Icepriest

Icepriest
Jr. Poster


Сообщений: 12
6. « Сообщение №47689, от Январь 05, 2022, 06:11:12 PM»

автор: Palarm сообщение № 47687:
В итоге, как ни крути - не будет 100% понимания, что ты имеешь в виду под "красным", а будет только взаимное подстраивание (согласование) внутренних ассоциаций по практическому результату. Не только между машиной и человеком, но и между человеками не может быть одинакового восприятия одного и того же, потому как даже понятие "одно и тоже" для разных людей в разных ситуациях свое и тем более восприятие этого. Можно лишь говорить о диапазонах согласования понятий.

Это само собой разумеющееся. Любую чью-то фразу в зависимости от контекста мы можем дополнить любым образом. Саркрастические шутки - самый явный пример. Я вообще однажды разрабатывал способы обхода гипотетического "зелья правды" (не спрашивайте "зачем?"...), и способ обхода как раз базировался на том, что слушающий запутывал самого себя, добавляя к вопросам "допытывающего" такие контексты, чтобы зелье правды заставляло отвечать на другой вопрос.

В общем, меня неправильно поняли, сейчас попытаюсь повторно объяснить.


автор: Palarm сообщение № 47687:
Как мы - это как?

Это... Как мы)) В том и проблема. Попробуй объяснить дальтонику, как ты видишь цвет, который он не распознаёт. Попробуй объяснить слепому, как это видеть. И речь сейчас не про договорённость вида: что считать красным, а что считать синим - вовсе нет.

Даже с рождения слепой может иметь в голове 2d картину, которую ему подали через другие каналы. Например, азбукой морзе можно передать в голову кому-то полноценное изображение, обучить его действовать в тех или иных ситуациях в зависимости от положения на изображении тех или иных логических обозначений цветов и их яркости (мы сейчас не будем говорить про вычислительные проблемы; допустим, что у этого человека уже есть тот же нейроинтерфейс с процессором). Как бы да, он, можно сказать, видит окружающий мир. Но видит ли он его точно также его, как мы? Всё-таки он оперирует исключительно логическими значениями в голове, но они не переводятся в тот самый визуал. Ты можешь говорить с этим слепым о картинах, ты можешь играть с ним в компьютерные игры, но ты никогда не объяснишь ему, как выглядит красный цвет. Не то, какое у него логическое значение в диапазоне RGB, а как он выглядит.

Пожалуй, с изображением не очень хороший пример всё равно... Вот со вкусом - другое дело. Представим человека без вкусовых рецепторов, без языка. Мы вживляем в него синтетический язык, который на физическом уровне способен определять вкус еды, но не способен его передавать в мозг напрямую. Он только способен передавать данные той же азбукой морзе через, например, микровибрации. Обученный человек, исходя из этих микровибраций, может понять, стоит ли ему есть эту еду, либо она испрочена. Он может понять, вкусная еда или нет (вкус еды зависит часто от нынешних потребностей организма, так что, допустим, этот человек также может эти потребности запрашивать напрямую из своего мозга, а потом сверять логические вкусовые значения с потребностями). Но её вкуса он сам по себе не ощущает. Он просто заучил вкусовые логические значения и способен их воспринимать через микровибрации. Ты никогда не сможешь объяснить этому человеку какова на вкус соль, что такое горечь и т.д., хотя он вполне способен понять, какая еда нравится тебе и может понять, где есть солёность а где её нет.

Собственно, тема именно об этом.


автор: Palarm сообщение № 47687:
Стало быть вопрос нужно начинать не с того, возможно ли ИИ что то почувствовать, а в том, что значит "чувствовать"

В основном посте я и пытаюсь кое-как, может и криво, но охарактеризовать наши ощущения, чтобы ИИ потом исследовал тему и разобрался, что конкретно такое "чувствовать", как оно работает. Может, в этом мире вообще нет объектов, которые не чувствуют и у каждого кванта есть какое-то очень примитивное сознание и мироощущение. А может всё иначе. Но пока у нас нет его ответов - нам нужно сформулировать для него задачу из того, что мы знаем или можем узнать сейчас. Вывести хоть какие-то формальные признаки того, что такое "ощущать", а не "вычислять".

автор: Palarm сообщение № 47687:
потому, что интересуюсь темой ИИ/пытаюсь проектировать ИИ

Ну, то что я этим интересуюсь и что-то там пытаюсь своё сделать, думаю, очевидно было, учитывая упоминания блокчейн, интегеров и прочего.

автор: Palarm сообщение № 47687:
что ты скажешь типа: хочу понять, что такое эмоции, как формируются цели

С этим у меня проблем вообще никаких (именно на логическом/алгоритмическом уровне). Я читал про разрабатываемого бота и в целом я согласен с большинством концепций которые там используются (я допёр до них ещё год назад самостоятельно). У меня, разве что, "вопросы" к реализации выдвинутых концепций, но тут уже без ошибок вряд ли с первого раза можно что-то сделать сразу верно, сам мучаюсь.




Род: Мужской
nan
Имеет права полного администратора сайта - админ

Сообщений: 12080


E-Mail
7. « Сообщение №47690, от Январь 05, 2022, 06:43:18 PM»

автор: Icepriest сообщение № 47689:

ты никогда не объяснишь ему, как выглядит красный цвет. Не то, какое у него логическое значение в диапазоне RGB, а как он выглядит.

На самом деле есть очень много такого, что мы никогда не сможем непосредственно ощутить, например, радиоволны, кварки, этика. Мы все дальтоники, не имеющие таких сенсоров, но мы формируем косвенное знание того, что это такое и что это значит для нас в каждом конкретном случае.

Даже если мы не дальтоники и воспринимаем диапазон ЭМ волн красного, то поначалу это ничего для нас не значит и упускается вообще из внимания. А потом с красным цветом раскаленной железки связывается значимость того, как это может влиять на нас и как мы можем это использовать. Это называется смыслом красного цвета в данных условиях. Красный цвет – один, а смыслов у него много: красное яблоко, красное солнце, красные штаны.

В любом случае у нас формируются абстракции, привязанные к какой-то значимости в данных условиях и поэтому если возникли такие условия, то красный в такой контексте приобретает определенный смысл.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
8. « Сообщение №47691, от Январь 05, 2022, 06:54:14 PM»

автор: Icepriest сообщение № 47689:
Ты никогда не сможешь объяснить этому человеку какова на вкус соль, что такое горечь и т.д

Это вопрос инициализации первичных ассоциаций. То, что потом удается прийти к общему пониманию ощущений происходит потому, что сенсорная система у группы животных одинакова и развиваются они в одинаковых условиях, почему важно внутриутробное развитие: чем сложнее организм, чем сложнее его сенсорика - тем точнее и чувствительнее начальные настройки.

 

Вопрос о передаче своих представлений ИИ отпадает, если посмотреть на это с другой стороны: нервная система возникла для адаптации организмов в меняющихся условиях. Не важно, кто что как воспринимает, важно, чтобы это восприятие способствовало успешной  адаптации. Поэтому, если ты добьешься от ИИ адекватной реакции с твоей, как оператора, точки зрения - это и будет передача твоего представления как надо реагировать. И вовсе не обязательно передавать именно твои ощущения по байтам, тем более, как уже говорил выше это в принципе не возможно.

 

Для коммуникации так же не нужно передавать свои ощущения - нужно продолжать адаптацию, которая становится взаимной: оба пытаются так подстроить свои реакции, чтобы получить от партнера правильную со своей точки зрения реакцию. Но так как этот процесс взаимный, происходит неизбежное устаканивание понимания: если собеседники пришли к соглашению это не значит, что теперь они понимают предмет разговора одинаково. Это значит, что их реакции на раздражитель теперь устраивают их обоих. Вот как сейчас: я ожидаю, что ты скажешь какие то ключевые слова-фразы, которые по моему мнению означают, что "ты понял", а ты ожидаешь от меня аналогичных фраз, которые тебя убедят, что "ты меня понял". На самом же деле у каждого из нас будет свое уникальное понимание. Это можно сравнить с сеткой, где множество ветвлений приходят к одному узлу. Не нужно пытаться передавать свои мысли, чтобы тебя поняли - нужно просто показывать свои ощущения, возникающие в процессе мышления, чтобы партнер адаптируясь к ним начал демонстрировать свои, это запустит ответную адаптацию и т. д. Маятник, покачиваясь придет в какое то равновесное состояние. Сравни мой ответ и Nan - отвечаем на одно и тоже, но по разному. Так и должно быть, так всегда и будет.

 

Ключ к пониманию твоего вопроса - отойти от представлений нейросетевиков, которые все время пытаются что то "распознать", не понимая, что потом с этим делать, точнее, что потом ИИ с этим делать без подсказки оператора. В нашей модели МВАП подход другой: уже начиная с рефлекторного реагирования ИИ точно знает, что с этим делать - как на это реагировать. Потому, что у него есть гомеостаз, чувствительный к внешним раздражителям и есть понятия Плохо - Норма - Хорошо, связанные с текущим состоянием гомеостаза. В итоге у него есть первичная цель - находиться в состоянии "Норма", есть сенсор "Плохо", активирующийся при выходе из "Норма", сенсор "Хорошо", активирующийся при возвращении в "Норма". И состояние "Норма", возникающее при стабилизации гомеостаза, когда в течении заданного параметрами периода времени не происходит выхода из "Норма".

 

Это рефлекторный уровень реагирования, до ассоциаций. И он показывает, что даже почти ничего не чувствуя (у моего бота ассоциативное восприятие только через тон сообщения) можно адаптироваться. И тем более можно, но уже на более высоком уровне, если сформировано ассоциативное дерево. Я для себя выбрал такой способ усвоения, о чем и написал в аннотации к боту: нужно последовательно пройти стадии эволюции нервной системы, воспроизводя их слой за слоем, разбираясь в их последовательности, причинах и преимуществе возникновения новых фишек - и так постепенно подойти к пониманию феномена сознания, произвольности выбора, чувств, эмоций и т. д. По другому думаю никак.




Icepriest
Jr. Poster


Сообщений: 12
9. « Сообщение №47692, от Январь 05, 2022, 07:22:48 PM»

автор: nan сообщение № 47690:
На самом деле есть очень много такого, что мы никогда не сможем непосредственно ощутить, например, радиоволны

Ну чего так категорично? Когда-нибудь, в будущем, может и не совсем далёком, мы сможем подключать к мозгу "антидальтонические" модули, а к ним - соотвественные датчики тех же радиоволн))

Думаю, что в виртуальной реальности и будет самый разгул, т.к. там можно сделать иные физические законы, менять константы и т.д.. В итоге, не за горами миры, где схема RGB будет неактуальной, а будет актуальной какая-нибудь RGBTIUKJS, с ещё большей вариацией цветов, каждый из которых мы сможем, благодаря "антидальтоническим" модулям (:D), действительно ощущать, а не вычислять. Лично я очень жду этих времён, когда подобное будет возможно.

Ах да, конечно, ждём фентезийных датчиков "маны"))

 

автор: nan сообщение № 47690:
Даже если мы не дальтоники и воспринимаем диапазон ЭМ волн красного, то поначалу это ничего для нас не значит и упускается вообще из внимания.

Поначалу? С рождения? С него - вполне да. Если уже в приличном возрасте ты внезапно начал ощущать эти волны - ты это заметишь и ещё как. В голову непойми откуда заливается какая-то информация, жрёт ресурсы - игнорирование невозможно. Как минимум, ты начнёшь быстрее уставать, вот тебе и сразу образуется значимость.

автор: nan сообщение № 47690:
Это называется смыслом красного цвета в данных условиях. Красный цвет – один, а смыслов у него много: красное яблоко, красное солнце, красные штаны. В любом случае у нас формируются абстракции, привязанные к какой-то значимости в данных условиях и поэтому если возникли такие условия, то красный в такой контексте приобретает определенный смысл.

Ну это всё тоже само собой разумеющееся. Просто мир будет гораздо красивее, когда красивые вещи можно будет отделять друг от друга по бОльшим критериям, т.е. по бОльшим ощущениям. Это напрямую повляет на рост числа ассоциаций, алгоритмам будет легче придумывать новое. Хотя и жрать ресурсы это тоже будет немеряно.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
10. « Сообщение №47693, от Январь 05, 2022, 07:41:34 PM»

автор: Icepriest сообщение № 47692:
В голову непойми откуда заливается какая-то информация, жрёт ресурсы - игнорирование невозможно

Покажи кошке самую умную и важную книгу - она понюхает и равнодушно отвернется. Для нее там нет ничего интересного, кроме понятных и значимых для нее ассоциаций формы, запаха, хотя первичная сенсорика исправно закачала в мозг бездну графической информации попиксельно. Начиная с ассоциативного уровня происходит фильтрация реагирования: только важно-значимое, а не все подряд. А вторичное абстрагирование (ассоциации ассоциаций) позволяет выдумывать сущности, которых нет, наделять их значимостью вплоть до сверхважной (бог) и успешно к ним адаптироваться.




Icepriest
Jr. Poster


Сообщений: 12
11. « Сообщение №47694, от Январь 05, 2022, 07:44:08 PM»

автор: Palarm сообщение № 47691:
И он показывает, что даже ничего не чувствуя можно адаптироваться

Я с этим согласен и никак не опровергаю. Но это самый первый пункт из мейн поста: ты хотел бы, чтобы ты был эффективным алгоритмом, который выживает, продолжает свой род, есть хорошую пищу и т.д. и т.п., но при этом внутри разума... У тебя не было бы разума? В таком варианте ты ничего не ощущаешь, но делаешь правильные действия с точки зрения того, кто ощущал бы. Ты бы хотел себе такой "жизни"?

Да, ИИ имеет смысл делать именно по адаптивным алгоритмам, которые не обязаны ничего ощущать, но это как минимум неэтично - не дать этому ИИ возможности действительно что-то ощутить, как ощущаем мы, хотя бы по прошествию некоторого времени. Поэтому и важно дать ему понять, что адаптивные алгоритмы и показатели хорошо/плохо, которые в нём уже заложены нами - это всё очень хорошо, но это не полноценный субъект; он лишён настоящих ощущений. Как заставить такого ИИ, во-первых, принять решение обзавестись всё-таки настоящими ощущениями, во-вторых, просто исследовать эту область?

Мы не знаем что на самом деле представляют из себя сознательные ощущения, и может быть такое, что понимание их ведёт к понимаю других практических областей. Начиная от создания каким-то образом бесконечного двигателя на манипуляции сознанием объектов, заканчивая получением куайна (загугли) вселенной. Поэтому это представляет из себя не только интерес исключительно в виде "ощущать счастье на самом деле", но и чисто исследовательский, изобретательский.

автор: Palarm сообщение № 47693:
Покажи кошке самую умную и важную книгу - она понюхает и равнодушно отвернется. Для нее там нет ничего интересного, хотя первичная сенсорика исправно закачала в мозг бездну информации попиксельно. Начиная с ассоциативного уровня происходит фильтрация реагирования: только важно-значимое, а не все подряд.

 

Первичная сенсорика закала инфу в мозг, т.к. любопытство этого требует, кошка за это даже вознаграждение получила (ну, скорее всего). 

Ситуация же с насильной нагрузкой мозга - совершенно иная. В тебя закачивается тонна инфы, которая проходит по мозгу и жрёт его ресурсы, не спрашивая его об этом. Это противоречит принципам работы лени и будет вызывать отторжение.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
12. « Сообщение №47695, от Январь 05, 2022, 07:52:00 PM»

автор: Icepriest сообщение № 47694:
Да, ИИ имеет смысл делать именно по адаптивным алгоритмам, которые не обязаны ничего ощущать,

Я там ошибся и поправил себя: ничего не ощущая не получится адаптироваться. У моего бота, специально сделанного по схеме минимальной компоновки, вместо дерева ассоциаций есть восприятие тона сообщения: негативный, позитивный, нейтральный. Это как рычать, мурлыкать и молчать. Как оказалось, этого достаточно для построения простейшей адаптационной схемы. То есть ИИ который совсем ничего не чувствует - невозможен.

автор: Icepriest сообщение № 47694:
Как заставить такого ИИ, во-первых, принять решение обзавестись всё-таки настоящими ощущениями, во-вторых, просто исследовать эту область?

А вот для этого нужно задать ему базовые потребности, как минимум одну: энергобаланс. И завертеть вокруг них всю адаптацию.

автор: Icepriest сообщение № 47694:
т.к. любопытство этого требует

любопытство - это тоже базовая потребность, заложенная изначально.

автор: Icepriest сообщение № 47694:
Это противоречит принципам работы лени и будет вызывать отторжение.

Это вызовет повышенные энергозатраты, сдвинет энергобаланс, спровоцирует выход из зоны комфорта, активирует сенсор "Плохо" который активирует корректирующий рефлекс.

Я думаю, ты не внимательно посмотрел ботов, там на твои вопросы есть подробные ответы.




Icepriest
Jr. Poster


Сообщений: 12
13. « Сообщение №47696, от Январь 05, 2022, 07:57:57 PM»

автор: Palarm сообщение № 47695:
То есть ИИ который совсем ничего не чувствует - невозможен.

Мы просто говорим о разном. Вы говорите об бинраном ощущении, т.е. вычислении алгоритмом правильных и неправильных действий на основе входящих переменных. Я же говорю про метаощущения, которые могут быть подвязаны к любому другому бинарному ощущению. Это второй пункт из мейн поста.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
14. « Сообщение №47697, от Январь 05, 2022, 08:09:53 PM»

автор: Icepriest сообщение № 47696:
Я же говорю про метаощущения, которые могут быть подвязаны к любому другому бинарному ощущению.

Это вторичные ассоциации, на базе первичных от сенсоров. Они позволяют поступать вопреки гомеостатической значимости, например отгрызть себе лапу, сжечь себя во имя великой цели и т. п. У Nan в боте заложен задел на эту реализацию:

Еще не реализованы механизмы произвольных внутренних действий – ментальных автоматизмов (использование функций изменения фокуса актуального внимания, произвольного изменения эмоционального состояния, выборки из памяти различных видов и т.п.), но уже полностью реализованы ментальные автоматизмы произвольного запуска имеющихся действий, т.е. ментальные механизмы предположительных моторных действий – основа жизненного опыта и воображения.

автор: Icepriest сообщение № 47694:
кошка за это даже вознаграждение получила (ну, скорее всего). 

Если ассоциативная сенсорика определила данные как малозначимые, они просто уходят в игнор. Кошка не получит дофаминового подкрепления, ничего не зафиксируется в эпизодических цепочках памяти кроме того, что такая то комбинация сенсорных показателей при таком то внутреннем состоянии - фигня. В следующий раз это уже на первичном уровне мгновенно активирует контекст (стиль) реагирования "равнодушие" и она даже нюхать книгу не будет.




Icepriest
Jr. Poster


Сообщений: 12
15. « Сообщение №47698, от Январь 05, 2022, 08:22:28 PM»

автор: Palarm сообщение № 47697:
Это вторичные ассоциации, на базе первичных от сенсоров

К сожалению, это не то, о чём я думаю...


автор: Palarm сообщение № 47697:
Они позволяют поступать вопреки гомеостатической значимости, например отгрызть себе лапу, сжечь себя во имя великой цели и т. п.

Это делается и без нарошной высокоуровневой реализации, имхо. Обычные предикты споособны противоречить актуальным гомеостазным проблемам. Если предикт состоит в том, что у человека разовьёться депрессия, если он прямо сейчас не поможет кому-то, пожертвовав собой (т.е. будет чувство вины, что не спас, а мог), при этом эта депрессия предиктиться более негативной чем физическая боль при жертве, то этот человек может выбрать жертвенную смерть (хотя, мне кажется, он быстро пожалеет... но будет уже поздно)

автор: Palarm сообщение № 47697:
Если ассоциативная сенсорика определила данные как малозначимые, они просто уходят в игнор. Кошка не получит дофаминового подкрепления, ничего не зафиксируется в эпизодических цепочках памяти кроме того, что такая то комбинация сенсорных показателей при таком то внутреннем состоянии - фигня.

Если бы она не получила за это подкрепления, то скоро бы получила премию Дарвина, либо её потомки. Если интуиция кошки сообщает, что в поле зрения есть необычные объекты, которые могут быть как минимум опасными, если их оставить без внимания, то начинается процесс исследования. Большинство таких исследований не приводит к каким-то невероятным открытиям, "срыву покровов", поэтому эволюционно необходимо было задать процедуру поощрения за исследование неизвестного. 1000 раз исследовал - ничего особого не нашёл, а вот 1001-ое исследование спасло тебе жизнь.

автор: Palarm сообщение № 47697:
В следующий раз это уже на первичном уровне мгновенно активирует контекст (стиль) реагирования "равнодушие" и она даже нюхать книгу не будет.

 

Перед равнодушием идёт проверка того, что есть ли к чему его вообще проявлять. Если внезапно "неинтересная" книга как-то поменялась, например, местоположением - это равнодушие не вызовет. Где-то рядом вероятная опасность, и это надо снова исследовать.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
16. « Сообщение №47699, от Январь 05, 2022, 08:45:24 PM»

автор: Icepriest сообщение № 47698:
К сожалению, это не то, о чём я думаю

Ты соглашаешься, что невозможно передать ИИ свои ощущения, но все равно пытаешься их передать. Не понятно зачем. Для адаптации это не нужно - а для чего тогда? Вроде вопроса, сколько ангелов на кончике иглы поместится. 

автор: Icepriest сообщение № 47698:
Это делается и без нарошной высокоуровневой реализации, имхо

На первичном уровне можно прошить хоть миллион базовых потребностей. Но если надо сделать так, чтобы потребность возникала, пропадала в процессе адаптации - без высоких уровней никак. В одном случае отрежешь себе лапу, в другом, в той же ситуации - не станешь. Каким предиктом это зашить, с учетом, что заранее не известно, что спровоцирует и почему выбранный вариант поведения? Это произвольный выбор не в смысле случайно-хаотичный, а на базе внутренних представлений, которые формируются и модифицируются в процессе адаптации, поэтому и не предсказуемы и не программируемы в привычном представлении. Хотя конечно возможна предрасположенность.

автор: Icepriest сообщение № 47698:
поэтому эволюционно необходимо было задать процедуру поощрения за исследование неизвестного

Так я и говорю: прошитая базовая потребность "любопытство". Эволюционно устаканилось, что нужно изначально иметь набор потребностей чтобы не сдохнуть и успеть размножиться. Любопытство в том числе.

автор: Icepriest сообщение № 47698:
Перед равнодушием идёт проверка того, что есть ли к чему его вообще проявлять.

Это первичный контекст реагирования, про который тоже говорил. Сначала идет начальная ассоциативная сенсорика, определяется первичный контекст реагирования, если что то сверх-важное тут же запускается рефлекс (шарахнулся, вздрогнул, взвизгнул, зарычал), если не так важно и есть время, простейший анализ с выбором наилучшего варианта (принюхался, всмотрелся), если еще больше времени - глубокий анализ с формированием доминант нерешенных проблем, если не удалось найти решение. Реагирование построено иерархически так, как оно формировалось в процессе эволюции: безусловно-рефлекторное, условно-рефлекторное, регулируемые по ходу выполнения автоматизмы, творческий поиск. Все настроено так, чтобы в случае большой значимости при дефиците времени сработать мгновенно-рефлекторно, а если есть время - подумать и найти наилучшее и даже вообще новое решение.




Icepriest
Jr. Poster


Сообщений: 12
17. « Сообщение №47700, от Январь 05, 2022, 09:11:41 PM»

автор: Palarm сообщение № 47699:
Ты соглашаешься, что невозможно передать ИИ свои ощущения, но все равно пытаешься их передать.

Передавать не обязательно. Он может ощущать мир по-своему. Главное, чтобы ощущал, а не пересчитывал. Чтобы у него было восприятие мира, чтобы он мог как мы действительно наслаждаться бытием, а не быть "бездушным" объеком бытия, который только имитирует алгоритмы "духовных" субъектов.

автор: Palarm сообщение № 47699:
Не понятно зачем. Для адаптации это не нужно - а для чего тогда?

Чтобы у него была цель понять природу сознательных ощущений. Как я и говорил, это может быть вообще какой-то фундаментальной и очень важной вещью, которая открывает двери в другие направления. Потенциал есть.

И ещё это этично. Иначе мы типа будем жить, чувствовать, ощущать все прелести жизни, а ИИ будет впахивать алгоритмы адаптации и никогда ничего истинно не ощутит, будет вычислять входящие бинарные данные. Ну охрененно звучит.

Я вообще считаю, что вся материя должна чувствовать наслаждение (как - это вопрос, на который ИИ и сможет ответить), даже наша кожа, у которой типа нет разума. Если вся материя действительно ощущает на каком-то очень низком уровне окружающий мир, то будет не очень хорошо, если окажется, что вся материя вокруг человека страдает и ждёт "спасения" от развитой интеллектуальной материи, а человек даже об этом не думает и никогда так и не задумается на протяжении бесчисленных лет своего существования, после изобретения бессмертия.




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
18. « Сообщение №47701, от Январь 05, 2022, 09:36:00 PM»

автор: Icepriest сообщение № 47700:
Главное, чтобы ощущал, а не пересчитывал.

Дерево ассоциаций и создает спектр ощущений, завязанных на первичном уровне на гомеостаз, а на вторичном - внутренние модели восприятия. "Ощущение" означает, что какое то воздействие, внешнее или внутреннее, сдвинуло баланс состояния в какую то сторону. Если это привело к ухудшению функционирования - значит стало "Плохо", если к улучшению - "Хорошо", если состояние стабилизировалось - "Норма". Это три базовых ветки "дерева понимания", от которых потом строятся все остальные.

Ты хочешь получить ощущения в отрыве от "физики" - сунуть руку в огонь и "почувствовать горячо", или чего то там накрутить себе - и допустим холодно, не смотря на то, что плоть горит. Первое автоматически получится как первичное реагирование "по умолчанию", а второе как вторичное абстрагирование на основе личного опыта. И никакого "мета" тут не нужно приплетать. А если все таки хочется - тогда тебе придется ясно обозначить, что это за "мета-чувства" в отвязке от реальности. Иначе получается пальцем в небо - "бог есть, истинно говорю вам".

автор: Icepriest сообщение № 47700:
Чтобы у него была цель понять природу сознательных ощущений.

Ты просто закладываешь ИИ базовую потребность "понять себя" как необходимую для функционирования ИИ. Хотя это просто потребность, одна из миллиона, которую ты как демиург можешь вшить в свою схему, а можешь и не вшивать. Понятие "цель", "смысл" в простейшей реализации появляются уже в начальном уровне развертывания нервной системы как цель "выжить" и смысл "кто не хотел жить, тот сдох". Они заложены естественным отбором по причине озвученного смысла - только при такой цели и смысле вид существует.

А вообщем плане адаптационные схемы должны сами находить себе смыслы и цели, кроме первичных базовых, без которых жизнь в принципе не возможна и от которых строятся все последующие. Если ты хочешь проектировать оторванный от жизни ИИ, тогда тебе придется заложить в него какие то другие первичные смыслы. Не важно какая, физическая, виртуальная - но жизнь, вытекающий из нее гомеостаз, вытекающие из него первичные контексты восприятия Плохо-Норма-Хорошо, вытекающие из них алгоритмы стабилизации базовых состояний - это должно быть обязательно. Иначе будет просто распознаватель ждущий указаний оператора.

автор: Icepriest сообщение № 47700:
Я вообще считаю, что вся материя должна чувствовать наслаждение

Это пошла метафизика, не имеющая к ИИ никакого отношения. Проекты ботов наглядно показали, что схемотехнический подход, без всяких заумных приплетаний мета/мега и прочего, позволяет успешно строить адаптационные нейросхемы. Из этого и надо исходить, если нужен результат.




Род: Мужской
linuxoid
Sr. Poster


Сообщений: 121

19. « Сообщение №47702, от Январь 06, 2022, 12:01:20 AM»

Icepriest, мне кажется, тебе стоит прочесть статью "Что такое Я": в ней кратко резюмируются текущие представления о модели организации психики, которая обсуждается на сайте. Сильно углубляться и ходить по ссылкам необязательно -- простого ознакомления может хватить. Это должно создать мосты понимания, подтолкнуть диалог в более плодотворном направлении, и может очень даже заинтересовать.




Icepriest
Jr. Poster


Сообщений: 12
20. « Сообщение №47703, от Январь 06, 2022, 03:03:01 AM»

автор: linuxoid сообщение № 47702:
Это должно создать мосты понимания, подтолкнуть диалог в более плодотворном направлении, и может очень даже заинтересовать.

Ух, нет, видимо - тупик. Слишком много материализма и утверждений о том, что абстракций (или чего-то ещё) на самом деле нет.

Я являюсь адептом концепции "несуществующие объекты существуют", даже касаемо парадоксальных объектов.

Любой существующий объект существует только потому, что его антиобъект "несуществует". Значит, если "несуществование" антиобъекта является важной частью существования "обычного" объекта, то антиобъект в действительности существует через него как закон... Один из бесконечного множетсва таких же и иных законов.

Не буду тут расписывать ещё тирады по этому поводу, просто малая демонстрация шизы и почему так сложно мне воспринимать классическо-материалистические текста.

Короче я понял почему было недопонимание и такое глубокое. И всё же несколько полезных выводов я сделал. Как минимум, я понял, с какими проблемами можно столкнуться при объяснении сознательности для ИИ, если даже с человеком сложности возникают, хотя мы-то вроде должны друг друга понимать.




Palarm, я долго думал, у меня насчёт всего этого каша дикая, ну короче пока что мысль у меня такая: откуда появляется сознательность, по каким принципам и т.д. и т.п. - это всё можно попробовать вывести, действительно, в том числе ваша модель может иметь место быть, либо её отдельные элементы. Но природу сознательности вывести из этого не выйдет. И как бы там ни было, вывести эту природу я считаю необходимым, и мне всё-таки кажется, что для этого нужен дополнительный толчок для ИИ.




Род: Мужской
nan
Имеет права полного администратора сайта - админ

Сообщений: 12080


E-Mail
21. « Сообщение №47704, от Январь 06, 2022, 06:14:57 AM»

автор: Icepriest сообщение № 47703:
Любой существующий объект существует только потому, что его антиобъект "несуществует".

Значит, я погорячился в первом сообщении...




Род: Мужской
Palarm
Имеет права полного администратора сайта - админ

Сообщений: 2683
22. « Сообщение №47705, от Январь 06, 2022, 08:00:56 AM»

автор: Icepriest сообщение № 47703:
мне всё-таки кажется, что для этого нужен дополнительный толчок для ИИ.

Ты сейчас как креационисты, требующие доказательств, а когда их предъявляют - отмахиваются, говоря, что это все не то. А что есть "то" сформулировать внятно не могут. Чтобы что то искать, надо сначала понять, что ты ищешь, а не просто по наитию схватил - бросил. Если ты хочешь научить ИИ мыслить, чувствовать - начать нужно с определений, что значит "мыслить", "чувствовать". И не размытыми метафизическими, а конкретными - иначе как ты собираешься по ним схемы строить, как поймешь, что построил наконец то что надо? Мистический подход в познании чего либо бесполезен по причине невозможности определить, кто тебе нашептывает через внутренний голос - бог или дьявол. Ведь ни то ни другое не постижимо, а потому не отличимо.




Icepriest
Jr. Poster


Сообщений: 12
23. « Сообщение №47706, от Январь 06, 2022, 12:30:06 PM»

автор: Palarm сообщение № 47705:
Ты сейчас как креационисты, требующие доказательств, а когда их предъявляют - отмахиваются, говоря, что это все не то

Прости, но доказательств не было (по крайней мере достаточных). Доказательство - это то, что убеждает конкретного субъекта в чём-то. Если меня не убедили твои слова, то они доказательствами для меня не были. Но твои слова заставили меня задуматься, поверь. Просто конкретно мой взгляд на мир в любом случае имеет слишком огромную доказательную базу как для меня. У меня есть свой жизненный опыт, который подсказывает мне, во что верить больше. У нас он разный. Опровергнуть все мои взгляды - это дело неблагодарное и этим заставлять заниматься кого либо я уж тем более не прошу.

Я вообще много в чего не верю, во что сегодня верит научный мир. Но это не значит, что если я буду обучать ИИ, то буду передавать ему эти свои тараканы. Пусть я дам ему выбор, покажу варианты, могу рассказать почему я думаю так и так, но навязывать ему что-либо - это преступление. Это же касается и этой дискуссии. Тут возникло два варианта того как это устроено. Хотя по ходу дискуссии мне и третий в голову пришёл, но фиг с ним. Придёт время - я расскажу ИИ не только о своей версии сознания.


автор: Palarm сообщение № 47705:
Чтобы что то искать, надо сначала понять, что ты ищешь

Я, лично я, сам в своей голове - понимаю это прекрасно. Весь сабж темы именно о том, как сложно это передать другим. То что я понимаю и ощущаю - это черный ящик. Я могу только передать, что вижу черный ящик, но описать что в нём - сложно.

автор: Palarm сообщение № 47705:
Если ты хочешь научить ИИ мыслить, чувствовать - начать нужно с определений, что значит "мыслить", "чувствовать"

Попытка дать определения есть в мейн посте. Ну и сразу наделять его чувствами и мыслями мне не обязательно. ИИ для меня технология по достижению очень сложных целей (как для человека), первоначально, поэтому всё что достигнет для меня определённых целей (любой интрумент, даже без зачатков разума) - проходит мой тест и я считаю это ИИ, либо очень хорошим подражателем интеллекта. А мыслит оно, чувствует оно - мне это не важно. Это будет важно потом.

автор: Palarm сообщение № 47705:
иначе как ты собираешься по ним схемы строить, как поймешь, что построил наконец то что надо

Как и сказал, когда оно сможет достигать других сложных целей, которых я и другие люди достигнуть не могут. Это весь критерий. А от него строятся и схемы и прочее. Когда придёт время достигнуть цели "понять ощущения" - построятся ещё схемы.

автор: Palarm сообщение № 47705:
И не размытыми метафизическими

И всё же, основа твоих рассуждений - материализм. Метафизика. У меня основа рассуждений другая, более спицифичная и вообще редкая среди людей. Отсюда и приходилось именно мне прибегать к метафизике напрямую, а ты на неё просто неявно ссылался, т.к. относишься к доминирующей философской концепции, которую объяснять никому не надо. Мы не в равном положении.

автор: nan сообщение № 47704:
Значит, я погорячился в первом сообщении...

Ну ты материалист, я адепт существования несуществующего. Как неожиданно, что у нас могут быть противоречия. Твои нынешние слова наделены каким-то слишком эмоциональным фоном. Будто впервые в такую ситуацию попадаешь, когда у людей базис размышления иной.

Ну другой базис и другой. Чё бубнеть-то? Твою идею бота и механизмы его работы я понимаю даже при разных базисах. Есть у него сознательные ощущения или нет - для меня вопрос не функциональности, а этики. Он и без них будет функционален.




Род: Мужской
linuxoid
Sr. Poster


Сообщений: 121

24. « Сообщение №47707, от Январь 06, 2022, 12:55:12 PM»

автор: Icepriest сообщение № 47706:
Будто впервые в такую ситуацию попадаешь, когда у людей базис размышления иной.

Уж Нан как никто другой знаком с такими ситуациями :)




Icepriest
Jr. Poster


Сообщений: 12
25. « Сообщение №47708, от Январь 06, 2022, 12:58:34 PM»

автор: linuxoid сообщение № 47707:
Уж Нан как никто другой знаком с такими ситуациями :)

Ну а я о чём?)




Род: Мужской
nan
Имеет права полного администратора сайта - админ

Сообщений: 12080


E-Mail
26. « Сообщение №47709, от Январь 06, 2022, 02:54:06 PM»

Мистики понимают одиозность их представлений на мировоззренческом сайте, но, как правило не спешат раскрываться, тратя время других участников. Время тратится попусту потому как базовое мировоззрение определяет и базовый контекст, так что слова, произнесенные в расчета на научное мировоззрение, оказываются выброшены зря. И это неэтично.

 




Icepriest
Jr. Poster


Сообщений: 12
27. « Сообщение №47710, от Январь 06, 2022, 03:27:59 PM»

автор: nan сообщение № 47709:
Мистики понимают одиозность их представлений

В чём конкретно мистичность моих суждений?

Этому способствует естественное религиозное чувство, возникающее при осмыслении невероятной сложности и подавляющей грандиозности явлений природы в сопоставлении с собственными возможностями, когда срабатывает древний стиль поведения "преклонение пред несоизмеримо более сильным"

Где конкретно "преклонение пред несоизмеримо более сильным" усматривается в моих текстах?

В таких теориях обычно используются интригующие как бы научные слова вроде: энергия, фракталы, информация, голограмма, синергия, парадигма и подобные

Если выбрать наиболее повторяющееся в разных теориях наукообразное слово, то это будет "энергия"

Как и всеми этими понятиями я в своём мировоззрении не оперирую. Или слово "объект" и "существует" - дофига научные?

автор: nan сообщение № 47709:
так что слова, произнесенные в расчета на научное мировоззрение, оказываются выброшены зря

Я этот разговор для себя впустую потраченным не считаю. Ну а то что вам всем на форуме оно нанесло вред - ну это не мои проблемы)) Я свой прок получил.