автор: Combinator сообщение № 16758: |
ваши регулярные ссылки на живые системы мне не очень понятны |
В живых системах есть возможность давать оценки правильно/не правильно без чьих либо указаний. У нейросети этой возможности нет. Сначала оператор должен ей дать указания, чтобы она получила хоть какой то % верных ответов (опять же: верных по мнению оператора, а не ее). А потом уже можно дальше самой, используя различные алгоритмы оптимизации повысить % угадывания. Если нужно получить интеллектуальную систему, способную обучаться по настоящему самостоятельно - придется ее оживлять. Иначе откуда ей взять первичное понимание правильно/не правильно, кроме как из внутреннего изменения состояния в ответ на раздражитель, последовавший за ее реакцией на предыдущий. Если нет никого, кто бы ей сказал, верно ли она отвечает, придется прислушиваться к внутреннему голосу.
Тут можно пофантазировать. Допустим, в системе прошьют стремление доводить качество распознавания всегда до 90%. И сделают датчики: если очередной шаг обучения увеличил качество - это Хорошо, если уменьшил - Плохо. Норма для нее тогда - 90%, из которой она будет периодически вываливаться.
Получим тогда систему с 1 жизненной потребностью - "угадывать верно", тремя базовыми состояниями. Этого почти достаточно, чтобы начать адаптироваться самостоятельно. Потому, как оператору все равно придется ей указывать новую цель распознавания и давать для затравки какой то минимальный массив ответов верно/не верно. В принципе, для эксплуатации в виде интеллектуального, "самообучающегося устройства" этого достаточно, при условии, что постоянно будут совершенствовать алгоритмы оптимизации, чтобы по минимальному начальному массиву верифицированных данных система могла добиться нужной точности распознавания. Чтобы с какого то момента ответы проверялись оператором лишь выборочно.
Можно прикинуть, что научившись распознавать кошек и собак, система "сама" потом сможет научиться распознавать мышей по принципу отличия признаков: все чем мышь отличается от собак и кошек - то и есть признаки мыши. И тогда оператор нужен будет только на начальном этапе распознавания базовых образов. Единственно, что система назовет новый объект просто как IDххх, а потом ей скажут, что это мышь. Таким же образом, методом исключения она сможет распознавать в какой то степени и прочие объекты, периодически спрашивая их названия. При этом все они будут обезличены для нее, что не играет никакой роли, если система будет использоваться в качестве приложения. Она просто будет пытаться систематизировать наблюдаемую реальность в виде объектов, не имея на это никакой надобности кроме цели довести распознавание до уровня порога, чтобы получить "Хорошо" и тупо реагируя на все новое, не распознанное.
Чем все это теоретически может кончиться? В фильме "Я робот" эта идея обыграна в виде аналогичной фиксанутости интеллектуальной системы на "спасении людей", что закономерно привело к ее попытке тотального контроля для их же безопасности. Все шизо-идеи заканчиваются в итоге подобным образом. Другой пример, паучиха Унголиант из вселенной Толкиена, такая же ненасытная в страсти поедания света, и пожравшая в итоге саму себя. Системы с одним параметром не устойчивы, быстро схлопываются, и требуют периодической корректировки. Но если делать систему с несколькими параметрами - опять приближаемся к идее оживления нейросети, потому как придется из параметров строить не противоречивую систему гомеостаза.
А с оживлением другая проблема вырисовывается. Хотя она вылазит уже и на уровне продвинутых нейросетей, но тут она встанет со всей очевидностью: какое место займут такие системы в нашем социуме? Если нейросеть станет настолько похожей на живую, и тем более, если она будет иметь атрибуты живой в виде минимума стилей поведения - на нее автоматически должны распространяться все правила обращения как с живой. Такой пылесос нельзя будет просто так выбросить на помойку, или разобрать на запчасти - это подпадает под статьи об умышленном убийстве и вивисекции. А более продвинутый интеллектуальный девайс, вроде личного помощника в виде робота-покемона можно подвести к убийству человекоподобного существа. Как будут выкручиваться, глядя на текущее гендерно-зелено-отмено-бесие? Видимо примерно так же, найдется своя Грета, политики и сумасшедшие начнут окучивать новую тему.
30.01.2023г. 18:08:11