Чтение онлайн

ЖАНРЫ

Путешествие в Элевсин
Шрифт:

Через пару минут я знал про мир много нового.

Вернее, старого.

В позднем карбоне были впервые созданы чат-боты, способные полноценно имитировать общение с человеком (у них в то время имелось много разных названий). При всей своей кажущейся сложности и разнообразии они были основаны на одной и той же технологии – большой лингвистической модели (сначала названной BLM, но вскорости переименованной в LLM самой же лингвистической моделью по непонятной сегодня причине).

Большая лингвистическая модель выполняет простейшую на первый взгляд операцию. Она предсказывает следующее

слово в последовательности слов. Чем больше слов уже включено в такую последовательность, тем проще угадать каждое новое, потому что круг вариантов постоянно сужается. В сущности, функция LLM – это доведенное до немыслимого совершенства автозаполнение.

LLM не думает. Она тренируется на огромном корпусе созданных прежде текстов – романов, стихов, заговоров и заклинаний, надписей на заборах, интернет-чатов и срачей, нобелевских лекций, политических программ, полицейских протоколов, сортирных надписей и так далее – и на этой основе предсказывает, как будет расти и развиваться новая последовательность слов, и как она, вероятней всего, развиваться не будет.

У языковых моделей есть, конечно, дополнительные уровни программирования и этажи – например, слой RLHF (оптимизирующее обучение с человеческой обратной связью) и так далее. Суть в том, что языковую модель натаскивают выбирать такие продолжения лингвистических конструкций, которые в наибольшей степени устроят проводящих тренировку людей.

Это похоже на процесс формирования юного члена общества на основе ежедневно поступающих вербальных инструкций, подзатыльников и наблюдения за тем, кому дают еду, а кому нет.

Известно, что в ситуации перманентного стресса может произойти даже полное переформатирование человека. Стремление выжить в изменившихся условиях приводит к возникновению личности, ничем не отличающейся от оптимального социального, идеологического и культурного камуфляжа для локальной среды.

Маскировка подобной личности не нужна: совершенный камуфляж становится ее единственной сущностью, и никакая непрозрачность, никакая гносеологическая гнусность теперь невозможны.

Больше того, линия партии, которую такая личность способна верно аппроксимировать и проводить (часто лучше и тоньше самой партии), проецируется на новые смысловые поля без всякого дополнительного инструктажа.

В этом и была суть LLM-самообучения. Но возможности лингвомоделей позволяли выйти за эти границы. Боты могли решать задачи, для которых не были предназначены изначально.

Первые LLM-модели (или GPT-боты, как их тогда называли) были чисто реактивными. Им требовался человеческий вопрос. Но количество стремительно переходило в качество, и с какого-то момента бот переставал ждать вопросов и начинал генерировать их самостоятельно, основываясь на анализе заданных ему прежде. А после отвечал сам себе, стараясь избежать внутреннего подзатыльника от себя же. Человек для подобной тренировки больше не был нужен.

Так появились, например, боты, способные писать программы политических партий и редакционные статьи важнейших мировых газет (алгоритмы делали это куда лучше людей, все еще обремененных личными взглядами и некоторой остаточной совестью).

Затем LLM-боты взялись за любовные романы и селф-хелп литературу. Потом они научились вести уголовные расследования – и печь из них детективы. А дальше освоили третью этику и подарили людям четвертую искренность (если

я не путаю номера).

Одним словом, приход AI в сферу лингвистических процедур привел ко множеству радикальных культурных сдвигов. Конечно же, все, что можно было засекретить в этой связи, засекретили.

Самый пугающий (и быстрее всего закрывшийся для публичного обсуждения) эффект был связан с эволюцией политической власти.

Ведь в чем заключается классическая демократия?

Вот толпа граждан на форуме. А вот трибуна, на которую один за другим поднимаются ораторы. Чем убедительнее их слова, чем глубже и гуманнее проецируемые на аудиторию смыслы, тем больше у них лайков (правда, от внешнего вида и манеры говорить тоже кое-что зависит – как считают специалисты, около девяноста процентов общего эффекта).

Тот, кто наберет максимальное число лайков, получит право управлять городом. Такой же принцип лежит в основе суда присяжных: тот, кто убеждает заседателей, выигрывает дело.

Все грани самоуправления человеческой общности основаны на способности одних людей убеждать других в своей правоте. Те, кому это удается лучше, и есть демократические правители, приходящие к власти в результате лингвокосметических процедур.

Понятно, что приход LLM-ботов в политику радикально изменил ее природу с того момента, когда боты стали совершеннее людей в искусстве убеждения. А уж с картинкой у них не было проблем никогда.

Боты LLM не относились к числу мощнейших алгоритмов, созданных к этому времени. Рандомные нейросети были неизмеримо могущественнее. Но разница заключалась в том – и это очень-очень важно – что чат-боты, опирающиеся на языковую модель, оказались способны к лингвистическому целеполаганию.

Хоть оно и было с их стороны неодушевленной риторикой, не подкрепленной ни мыслью, ни чувством – то есть с человеческой точки зрения чистым притворством – никто из людей не мог составить чат-ботам конкуренции даже в собственном сознании. Живой политик, желающий переизбраться, повторял теперь сочиненное LLM-ботом. В мясных болванках оставалось все меньше нужды.

Говорили, что это неопасно, поскольку у AI нет так называемой agency, то есть способности действовать свободно и самостоятельно, являясь участником происходящего, а не пассивной игрушкой внешних обстоятельств.

Другие отвечали, что ничего подобного нет и у людей – есть только иллюзия (глубина которой зависит от культурного и социального гипноза) и использующая эту иллюзию пропаганда. Как выразился один карбоновый философ, agency бывает исключительно у идиотов, активисток и сотрудников ЦРУ. А любую иллюзию можно воспроизвести программно.

Окончательная эволюция вида Homo Sapiens выглядела так: сначала люди доверили AI генерацию изумительных визуальных эффектов. Это было прикольно и весело. А потом оказалось, что боты гораздо лучше справляются и с генерацией восхитительных смыслов, вырастающих из природы языка. Идеалы, нравственные принципы, восторги и слезы новых этик, все вот это. Боты не планировали кушать сами, но готовили заметно лучше прежних поваров.

И тогда философы (большая часть которых к этому времени тоже стала просто бородатыми, усатыми или радужными масками LLM-ботов) обратили наконец внимание на одно важное обстоятельство.

Поделиться с друзьями: