Относится к сборнику статей телеграм-канала https://t.me/thinking_cycles
Согласно теории МВАП автоматизм оценивается после каждой активации, повышая или
понижая свой рейтинг успешности, вплоть до блокировки, если рейтинг становится
отрицательным. И вот тут, при практической реализации прототипа, возникли «технические» вопросы:
1. С какой градацией оценивать автоматизм?
Очевидно, если сделать просто -1…0…+1 (не удачный, нейтральный,
удачный) это существенно сузит вариабельность оценки. Ведь среди не удачных, на
безрыбье, можно попытаться выбрать наименее негативный, а среди удачных – наиболее успешный, который
и стоит запускать. Поэтому была принята градация: -10…0…+10.
2. С каким шагом изменять статус автоматизма?
Согласно концепции последовательного поэтапного обучения, чем ниже стадия, тем
более критически важные автоматизмы в ней формируются, которые должны
закрепляться более жестко. Поэтому во второй стадии градация +-5, в третьей
+-3, а в 4 стадии, где активируется эпизодическая память и начинают работать
инфо-функции +-1. В итоге автоматизм получается тем более консервативным, чем
на более низкой стадии он был создан, что означает его повышенную устойчивость
при попытке заблокировать его на более высокой стадии.
3. К каким последствия может привести блокировка автоматизма?
После нескольких пробных вариантов реализаций и тестов пришли к выводу:
блокировка автоматизмов возможно только на ранних стадиях, до осмысления.
Начиная с 4 стадии автоматизмы не блокируются, а только понижаются в рейтинге
до 0. Этот момент стоит рассмотреть подробнее, почему так сделано.
Дело в том, что если просто повышать или понижать рейтинг после каждой
активации автоматизма это приведет к тому, что большинство автоматизмов в итоге
окажутся… заблокированными.
Так получается потому, что простейшие реакции типа стимул – ответ никак не учитывают много
вариантность реагирования. Простой пример: утром здороваетесь со знакомым – он в ответ приветливо улыбается,
в другой день вечером говорите тоже приветствие –
он хмуро кивает. Потому, что в тот раз с утра был в хорошем настроении, а сейчас
под вечер устал и расстроен чем то.
Но такие тонкости, на ранних стадиях авторитарного отзеркаливания, когда нет никаких
моделей понимания, а только тупое бездумное копирование, невозможно определить.
Поэтому остается только тупо записывать все варианты ответов, получаемые от
Учителя (родителя, оператора), делая один из них (в проекте Beast это крайний
ответ, и думается в природной реализации тоже так) штатным, а другой запасным,
и разбираться с ними, когда какой применять, нужно будет на следующих стадиях.
И только экстремальное негативное воздействие (сунул нос в огонь – ожог и боль – блокируем такую глупость) может
заблокировать пробное действие. Имитация такого экстрима для Best делается через
специальные кнопки действий с повышенным эффектом воздействия.
Вообще это базовый принцип поэтапной адаптации: новый опыт, как правило, не
должен аннулировать старый, а лишь дополнять, уточнять его. Иначе не получится
развитие, а будет постоянное переобучение, топтание на месте. В данном случае,
авторитарно отзеркаленные от Учителя навыки в норме должны намертво
заколачиваться на ранних стадиях, и все новые теперь будут писаться поверх, на
их основе. Как слои папье-маше накладываются друг на друга, так новые навыки
строятся на основе старых. Пересматривать начисто базу все равно, что
ремонтировать дом, вышибая из под него фундамент –
будет не ремонт, а снос здания, и все придется начинать заново.
Поэтому в проекте Beast сделано так, что при попытке вернуться на предыдущую стадию
все навыки, обретенные на текущей стадии, стираются – очищаются соответствующие файлы данных. Экспериментальные
попытки просто перескакивать стадии без зачистки приводили в конечном итоге к сбоям
и неадекватным реакциям, что подтвердило такой подход. Это подтвердил и
эволюционный отбор, закрепив в периоде формирования психики животных
критические периоды развития, без возможности отката.
Алексей Парусников
29 June 2024