Чтение онлайн

ЖАНРЫ

Философские проблемы развития искусственного интеллекта
Шрифт:

В целом последствия технологической сингулярности могут быть разными, одна из них является оптимистической.

Этой версии придерживается Курцвейл. Он считает, что технологическая сингулярность решит все проблемы человечества. Он при этом полагает, что возникший интеллект будет по-прежнему представлять человеческую цивилизацию, что будущие машины будут человеческими, даже если фактически они уже не будут таковыми.

Будучи футурологом, Курцвейл является также известным представителем трансгуманизма. Трансгуманисты полагают, что прежняя эволюция человечества заканчивается, она вступает в трансгуманизм, который означает глубокие изменения во всех областях человеческой жизни. Благодаря опять же технологической сингулярности уже в нынешнем столетии развитие общества приобретет невиданное ускорение. Курцвейл считает, что уже сейчас темпы технологического прогресса каждые десять лет возрастают

в два раза, а в последующие десятилетия ускорение будет идти по экспоненте и станет многократным. Курцвейл предсказывает, что через несколько десятилетий люди начнут переходить от тела с искусственными органами к телу нанороботов. Он опирается при этом на известный закон Г. Мура, согласно которому каждые 18 месяцев компьютеры становятся вдвое мощнее, считая, что действие этого закона можно успешно распространить на другие области, растущее число которых оказывается во власти сингулярности с ее «ускоряющимся ускорением». Новые технологии откроют путь к победе над болезнями и старостью, к растущему продолжению жизни. Радикальное продление жизни приведет к фактическому бессмертию постчеловека.

Концепция Р. Курцвейла является последовательно положительной и оптимистической. Она получила большое влияние и широкое распространение. Вместе с тем далеко не все ученые разделяют его взгляды, многие из них занимают двойственную позицию, сочетая признание и отрицание искусственного интеллекта. Таковой является позиция известного английского физика-теоретика Стива Хоккинга, профессора Кембриджского университета. Его концепция во многом является пессимистической. Вслед за Курцвейлом он называет себя «убежденным редукционистом», полагая, «что законы биологии можно свести к законам химии», «что химические законы могут быть сведены к физическим» [2, c. 165].

С. Хокинг считает роль искусственного интеллекта в человеческой истории неоднозначной. Сегодня нельзя сказать, будет ли он другом, соратником, соперником или даже врагом человека. Он может стать как наиболее положительным, так и наиболее отрицательным фактором для человека. Искусственный интеллект может быть успешно использован для борьбы с болезнями и преодоления бедности.

Вместе с тем Хокинг допускает, что последние достижения цивилизации могут привести к деградации человека. В то же время он отмечает, что при правильном подходе искусственный интеллект способен решить большинство проблем в современном мире. Он также не исключает, что искусственный интеллект «может стать последней технологической революцией, если человечество не научится контролировать риски».

В общем, так или иначе, искусственный интеллект фактически преобразует все аспекты нашей жизни. Он может стать как «лучшим», так и «худшим» событием в жизни человека, нести как преимущества, так и опасности. Наряду с выгодами искусственного интеллекта также создает угрозы, к каковым следует отнести новое автономное оружие, а также возможности для немногих господствовать над большинством. Хокинг согласен с теми, кто видит опасность в том, что интернет выступает командным центром для террористических организаций. Он не исключает того, что искусственный интеллект может вступить в конфликт с людьми. С недоверием и опасением смотрит он на развитие высоких технологий искусственного интеллекта, полагая, что роботы могут всюду заменить людей.

Хокинг допускает, что в будущем будет создан искусственный интеллект, который окажется способным воспроизводить и улучшать самого себя. Это станет новой формой жизни, которая превзойдет человеческую жизнь. У роботов может возникнуть желание избавиться от людей, или же люди могут погубить самих себя. Хокинг считает, что люди прошли точку невозврата. Земля становится слишком тесной для них, к тому же население растет слишком быстро и пугающими темпами, люди рискуют уничтожить самих себя. Созданные людьми изобретения все сильнее угрожают планете. Вместе с тем Хокинг не считает, что люди должны отказываться от движения вперед. Просто возникшими опасностями надо уметь управлять. Человечество должно найти способ покинуть Землю и освоить другие планеты.

Интересной представляется концепция французского ученого и философа Ж.-К. Эдена, который является автором многих книг и статей по искусственному интеллекту. Его подход является критическим, он также не лишен иронии.

Ж.-К. Эден отмечает, что в современном коллективном воображаемом искусственным интеллектом стал настоящим мифом всесильного технологического прогресса. Его технопророки активно предсказывают скорый приход супер-интеллекта, который во всем превзойдет человеческий разум, станет неким божеством и установит контроль над человеческой судьбой. Несмотря на призывы со стороны многих ученых вернуться к разуму и

здравому смыслу, в реальной ситуации почти ничего не меняется. Публикации в пользу искусственного интеллекта и технологической сингулярности продолжают множиться. В этой сложной ситуации, когда самые светлые умы оказываются в плену самых фантастических построений, Ж.-К. Эден высказывает несколько предложений. Он полагает, что следует признавать существование искусственного интеллекта, а также стремиться как можно больше знать о нем. Французский ученый отмечает, что искусственный интеллект обладает большим потенциалом и может помочь в решении многих проблем, особенно в области здоровья и образования. Он напоминает, что, как показывает опыт истории, «обычно более полезным бывает скорее брать кое-что из прогресса, нежели противостоять ему» [8, c. 14]. В этом плане он предлагает свой подход к классификации искусственных интеллектов, включающий шесть уровней, не ограничиваясь простой оппозицией «сильного» и «слабого» искусственного интеллекта.

Уровень 1 – ниже человеческого интеллекта, (уступающий ему по многим параметрам).

Уровень 2 – равный человеческому интеллекту, созданный в 1970-е годы в Стэнфордском университете.

Уровень 3 – превосходящий человеческий интеллект. Его реальным примером выступает компьютер Deep Blue, разработанный IBM в 1990-е годы и обыгравший в 1997 г. чемпиона мира по шахматам Г. Каспарова.

Уровень 4 – превосходящий фактически все виды человеческого интеллекта. Его примером является компьютер AlphaGo, созданный Googl DeepMind и победивший лучшего игрока в мире по Go.

Уровень 5 – «общий», соответствующий названию программы AGI (Artificial General Intelligence) или «полному» искусственному интеллекту. Его реального примера пока нет.

Уровень 6 – «сингулярность», или «бесконечно превосходящий» человеческий интеллект, соответствующий «технологической сингулярности». Он предстает скорее, как гипотеза, по поводу которой еще нет согласия.

Уровни 1–4 соответствуют «слабому» или «ограниченному», «спецализированному» искусственному интеллекту, а уровни 5–6 соответствуют «сильному» или «общему» ИИ. Считается, что в будущем «общий» уровень может быть достигнут. Оптимисты отводят для этого десять лет, скептики – сто лет или даже больше. Жан-Клод Эден полагает, что уровень 6 находится ближе к научной фантастике, чем к науке. Он представляется ему в высшей степени маловероятным [3, c. 63–68].

В качестве некоторого итога можно сказать, что затронутые концепции являются распространенными, хотя их, разумеется, нельзя назвать исчерпывающими. Одной из центральных тем в них и других является тема будущего человека, его судьбы. В этом плане французские авторы Р. Желен и О. Гилем рассматривают названную тему через призму робота, назвав свою книгу: «Робот – это будущее человека?». Роботы уже принесли людям определенные риски: они отнимают у них рабочие места. Тем не менее, тысячелетний опыт научил человечество отличать добро от зла. Оно успешно справилось с индустриальной революцией, прошло через испытания недавней интернетной революции. И сегодня авторы возлагают надежды на этический фактор: «Человек должен оставаться ответственным за свои поступки, поскольку именно это отличает его от всех других творений – живых и искусственных» [5, с.156].

Сходные мысли французский философ Жан-Мишель Бенье развивает в своей книге «Завтра – постчеловек. Будущее еще нуждается в нас?». Он описывает процесс перехода прежнего мира модерна в сегодняшний мир постмодерна. Человечество переходит в постчеловечество. Автор полагает: «Время человека вышло» [6, с. 180], «Сегодняшний человек умирает» [6, с. 181]. Человеческое уступает место постчеловеческому и нечеловеческому. Постчеловек представляет собой нечто среднее между человеком, животным, роботом, киборгом и клоном, возникшее как результат скрещивания биотехнологий, нанотехнологий и искусственного интеллекта. Гуманизм смешивается с постгуманизмом и трансгуманизмом.

Шведский философ Ник Бостром, профессор Оксфордского университета, полагает, что главная угроза для человеческого общества идет от сильного искусственного интеллекта, сверхразума, его взрывного развития. Он считает, что «сверхразум, достигший возможности определять будущее земной цивилизации, легко может стремиться к конечным целям, глубоко чуждым интересам и ценностям человечества» [7, с. 185]. Так что гибель человечества предстает как неизбежное следствие взрывного развития сверхразума. Однако будущее самого сверхразума остается неопределенным. В этом плане Ник Бостром указывает на слишком завышенные и несбывшиеся ожидания относительно искусственного интеллекта, на разногласия, скептицизм и пессимизм относительно времени, сроков и возможности появления искусственного интеллекта среди его сторонников.

Поделиться с друзьями: