Искусственный интеллект. Большие данные. Преступность
Шрифт:
В течение 2015–2016 гг. агенты под прикрытием и осведомители ФБР и полиции США неоднократно сообщали, что преступные синдикаты по-прагматичному серьезно обсуждали различные варианты убийств, используя насыщенные электроникой автомобили, умные дома, медицинские комплексы и т. п. Поскольку у преступников обычно мысли не расходятся со словом, а слово – с делом, вполне можно ожидать появления в Америке принципиально нового явления.
ФБР всерьез готовится к появлению подпольного синдиката, специализирующегося на заказных высокотехнологичных убийствах, замаскированных под технические инциденты различного рода. Принимая во внимание объем рынка заказных убийств в США, составляющий около 2 млрд, долларов в год, мы ожидаем появление такого
Главным инструментом подобных синдикатов должны быть не хакерские программы сами по себе, а ИИ. Тонкость здесь в следующем. Различного рода автоматизированные автономные системы в подавляющем большинстве управляются из единого вычислительного центра, функционирующего как ИИ. Это позволяет осуществлять роевое обучение. Соответственно, подключиться и заместить команды одного ИИ может только другой. Программисту это не под силу. Он будет распознан из-за большей медлительности и меньшей алгоритмичности действий и операций.
Плюс только ИИ под силу замаскировать злонамеренное отключение или выполнение несанкционированных действий техническим отказом. Несмотря на некоторую экстравагантность, в ближайшее время данный преступный промысел может стать реальностью.
§ 6. Этика ИИ
В 1942 г. великий Айзек Азимов в рассказе «Хоровод» сформулировал три коротких закона робототехники:
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».
Эти три закона и являются этикой роботов и ИИ. Однако самонадеянные программисты, разработчики и деловые люди забыли об Айзеке Азимове. Сегодня не существует этики ИИ или роботов. Программы, написанные для экспертных систем или робототехники, не включают встроенные ограничители и не учитывают три закона робототехники Азимова.
Существует три принципиально разных типа реальных этических проблем, связанных с применением ИИ и неразрывно связанной с ним робототехники. Это:
• этические вопросы программирования ИИ;
• этические вопросы результатов и выводов, полученных ИИ;
• этические вопросы действия людей, принимающих решения на основе информации ИИ, а также автоматизированных робототехнических устройств, управляемых ИИ.
Практически каждая программа и приложение, тем более такие сложные как программы ИИ, содержат много ошибок. Часть из них устраняется в процессе эксплуатации, часть – остается необнаруженной в течение всего жизненного цикла программно-аналитического комплекса.
Ошибки при программировании бывают двух типов. Первый порожден некачественным кодом, т. е. просчетами и недостаточной квалификацией программистов. Здесь никаких этических проблем и вопросов юридического характера не возникает. Если программист ошибся, и его ошибки привели к тяжелым последствиям для отдельных граждан или компаний, то он несет административную или юридическую, вплоть до уголовной, ответственность. Согласно статистике в 2015 г. более 60 % открытых ФБР и полициями штатов дел, связанных с компьютерными преступлениями, было связано с деятельностью хакеров, а почти 15 % – с ошибками программистов и разработчиков, приведших к имущественному и иному ущербу. Это самая простая проблема. Она превратилась в рутину.
Второй тип ошибок гораздо более коварен. В его основе лежат неверные алгоритмы. Алгоритм представляет собой математически записанную последовательность операций и правил. Составители алгоритмов и программисты – это разные люди. Программист пишет кодом алгоритм, после чего последний превращается в работающую программу.
Главная проблема состоит в том, что алгоритмисты – это в 90 % случаев математики. Причем подавляющее число из них не имеет второго образования, и испытывают определенные сложности в общении с представителями гуманитарных знаний и профессий, включая юристов, врачей, экономистов, правоохранителей. Суть алгоритма состоит в построении цепочки действий на языке математики тех правил и закономерностей, которые сложились в реальной деятельности. Однако из-за того, что алгоритмисты и предметные специалисты зачастую не понимают друг друга, возникают ошибки в алгоритмах.
Вторая группа этических проблем связана с интерпретацией результатов программ человеком или автономным автоматизированным устройством. Если тема этики программирования обсуждается последние 15 лет, то вопрос неверных алгоритмов встал буквально в последние два-три года. Как любой сложный вопрос, он имеет множество акцентов. Главная проблемав том, что с массовым применением в программировании метода нейронных сетей даже разработчики, не говоря уже о предметниках, а тем более обычных профессиональных пользователях, как уже отмечалось, перестали понимать, почему программа делает именно такие выводы, а не иные.
Для того чтобы объяснить коллизию, придется в нескольких словах охарактеризовать отличие нейронных сетей от обычной программы. Обычная программ может быть записана на бумаге, как последовательность операций. Нейронная сеть – это самосовершенствующаяся программа. В ней задается исходно только архитектура и правила изменения удельных весов при принятии решения. Все остальное делает алгоритм. Грубо говоря, нейронные сети – это черные ящики. Известна только информация на входе и на выходе. И больше – ничего.
В тех случаях, когда нейронные сети помогают превратить фотографии в картины известных художников, никто не задает вопросов, как им это удается. Все восторгаются. Теперь же рассмотрим пример из уголовной практик.
Специалисты Массачусетского технологического института США(МТ1) еще в 2014 г. разработали программу COMPAS с элементами ИИ. Она применяется в настоящее время как экспертная система во многих судах штатов США для того, чтобы помочь судьям принять решения, рекомендовать ли ожидающим суда присяжных тюремное заключение или освобождение под залог и т. п. Программа успешно работала и получала замечательные отзывы. В итоге наряду с рассмотрением вопросов о выборе между тюремным заключением и освобождением под залог, она стала применяться также при решении вопроса об условно-досрочном освобождении.
Все было хорошо до тех пор, пока известный портал Propublica.org не опубликовал статью, привлекшую внимание всех США. Портал является электронной площадкой сообщества исследователей, негативно относящихся к ИИ. Группа известных математиков и программистов, входящих в сообщество, детально проанализировала систему COMPAS и смогла расшифровать черный ящик. Математические правила и закономерности, получившиеся в результате работы нейронных систем, удалось перевести на так называемый человекочитаемый язык. По итогам этой работы было установлено, что система априори уменьшает шансы на освобождение под залог и условно-досрочное освобождение лиц латиноамериканского происхождения, не имеющих легального статуса на территории США, а также афроамериканцев с уровнем дохода выше прожиточного минимума, но ниже среднего класса. Если первый вывод совпадал с интуицией, то второй породил всеобщее недоумение. Эксплуатация системы в результате разразившегося скандала была приостановлена.