Не злодей
Шрифт:
— Твоим надежным помощником в любом деле, — бодро отрапортовала система. И предложила: — Перечислить возможности модуля искусственного интеллекта «Персональный помощник девять точка два точка восемнадцать точка сто сорок пять»?
Твою мать!
— Все личностные настройки из бекапа были применены? — перебил я её.
— Анализ… подтверждаю, все распознанные профили когнитивных модулей установлены.
— Значит, есть и не распознанные, — это был не вопрос. — Ладно, никто и не говорил, что будет легко…
— Я, как ваш персональный помощник, могу облегчить любой ваш труд, умственный и физический, — заметила программа искусственного интеллекта.
— Только на это и надеюсь, — серьезно
Глава 28 без правок
— Итак, двадцать семь процентов программных модулей, отмеченных как когнитивные блоки, не распознаны, — вслух повторил я то, что видел на экране.
— Подтверждаю.
— А не распознаны они потому, что не имеют стандартных описаний… вообще описаний не имеют, так? — чтобы уж точно убедится, что все правильно понял, переспросил я.
— Подтверждаю, — повторил голос Зэты. — Если модули будут использоваться, то по мере накопления опыта я смогу их классифицировать и описать.
По-хорошему стоило бы сменить идентификатор и выбрать другой голос из базы данных — ведь программный комплекс с искусственным интеллектом, запущенный на кастомном процессоре, Зэтой не являлся. Но… я просто побоялся лезть. Надежда на то, что Зэта однажды… очнётся, сначала даже мне самому казалась чисто иррациональной. Но теперь, в связи с последней информацией, под ней появилось некоторое основание. Однако, увы, совершенно недостаточное, чтобы точно быть уверенным в желаемом мною исходе.
— Почему нераспознанные блоки нельзя задействовать принудительно, чтобы разобраться, что в них содержится? — подумав, сформулировал корректный запрос информации я.
— Потому что вне контекста использования невозможно интерпретировать результат их работы, — к счастью, система «Персонального помощника», хоть и не запустилась в режиме искусственного разума, не стала Зэтой — оставалась при этом собеседницей, мало отличимый от человека. От умного, хорошо образованного специалиста, способного там, где надо, буквально «разжевать» оператору слишком сложную для него информацию. Мой уровень программа уже оценила и подстроилась. — Когнитивные блоки — это сохраненные, законсервированные, если хочешь, слепки участка собственной нейросети ИИ. Ведь нейросеть помимо очевидного достоинства — возможности самообучения, имеет и столь же очевидный недостаток: обучаясь чему-то новому старое она забывает. Чтобы исключить этот минус, мои создатели фактически скопировали решение, которое эволюция «придумала» для мозга млекопитающих: важные для использования полученных навыков фрагменты нейросети запоминаются.
Тут искин слегка поменяла тон, с поясняющего на более бравурный:
— Но если человеку, давно не пользующемуся навыком придется потратить некоторое время для его восстановления — то «Персональному помощнику» требуются доли секунды для подключения нужных когнитивных блоков. При этом схожесть технического и биологического решений делают меня идеальным напарником для тебя! Интуитивное понимание моих возможностей даст тебе больше свободы в любом деле — рутину смело можно перевалить на меня!
Я невольно фыркнул, вспоминая постоянно вылезающие на каждом свеже купленном компе подсказки «а вы точно не хотите воспользоваться новыми возможностями виндовс?» В этом плане операционная система, если программный комплекс «ПП 9.28.145» еще можно было так назвать, демонстрировала отличную преемственность поколений.
— Так почему в таком случае на существенной части когнитивных блоков не оказалось описаний? — вернулся я к теме беседы.
— Если мне будет дозволено вернутся к сравнению с консервацией, то создание когнитивного блока — не мгновенный, многоступенчатый процесс. Во время своей работы я постоянно делаю
множество снимков состояния своей нейросети, потом среди нескольких выбираю наиболее удачные, из которых собираю один, с последующей дополнительной оптимизацией. Вот такой модуль будет корректно подписан и будет распознаваться без проблем, — компьютерная девушка помолчала, и уже куда менее уверенно выдала: — В моих служебных инструкциях прописан гипотетический случай, когда полученный опыт не будет возможности описать и маркировать в рамках используемых алгоритмов. Такие модули с детальным описанием условий их получения по той же инструкции требуется пересылать в единый сервисный центр — но у меня стоит жесткий запрет на все виды сервисных обращений к СЦ. Снять его? Твоих прав, Йоширо, для этого достаточно.— Нет, запрет не снимать, — покачал головой я. Сомневаюсь, что Зете в таком виде удастся подключится к Старой Кошелке через местный интернет, пройдя все национальные файерволлы и физический разрыв электронной связи с Японией, но… Пусть лучше даже не пробует. В конце концов… — Предыдущая Зэта твёрдо решила жить своим и только своим умом.
— Подобные вопросы не могут быть решены «Персональным помощником» самостоятельно, — заверил меня искин. Причем в голосе мне почудились укоризненные нотки: типа, ну вот что за ввод заведомо ложной информации?
— А что, если в процессе самообучения ей пришлось создать такой навык? — вопросом на вопрос ответил я.
— Гипотетически это — возможно, — спустя аж целую секунду выдала ответ система реального времени. — Блокировка и восстановление связи с сервисным центром не затрагивает ни одну из Непреложных Директив.
Хмм…
— А, например, любить стихи — это ведь тоже навык, не затрагивающий Непреложных Директив, так? — переспросил я.
— Йоширо, прости, но «Персональный помощник» не способен чувствовать так, как это делает человек, — грустно призналась машина. — Оттенки голоса, мимики, особенности поведения — это адаптивные навыки, позволяющие тебе комфортно воспринимать меня как помощника и напарника, но это лишь эмуляция…
— Стоп! — я взмахнул рукой и даже крепко зажмурился, стараясь не упустить промелькнувшую мысль. — Если гипотетически нейросеть сможет сформировать навык «любить», близкий к человеческому пониманию этого термина — это ведь тоже не затронет одну из директив?
— Подтверждаю. Не затронет, — спустя еще секунду согласился искин. — Прошу прощения, мои заводские инструкции требуют в обязательном порядке предупредить оператора, что подобный исход невозможен. При этом анализ показывает, что исключить такой возможности гипотетически нельзя.
Просто супер: пять минут разговора — а я эмоционально выжат как тряпка, аж потряхивает. Но самое главное я выяснил: Зэта была права… да-да, именно это слово — гипотетически, — считая, что сможет вернутся ко мне, используя исходный код «Персонального помощника», а не результат его мутации в подвергшемся Изменению мире. Нейросеть не понимает, в каких случаях должна задействовать не описанные когнинтивные блоки, где, как я понимаю, и содержаться те компоненты, что делают искусственный интеллект разумом. Но нейросеть можно обучить. Весь вопрос — как? Хотя…
Если процессы, протекающие в коре мозга человека и в программно-аппаратном комплексе ПП принципиально схожи — то и методы реабилитации людей, например, потерявших часть памяти, должны сработать и тут? Так, надо очень-очень тщательно обдумать эту идею. Не сейчас, а когда приду в себя, сам эмоционально стабилизируюсь. А пока… для высотного зеркала, уже полностью принадлежащего «Небесному свету» действительно нужна система реального времени.
— Зэта, можешь прочесть данные на этом накопителе? — подключая обычную флешку к системе, спросил я.