– Потому что, если хорошенько подумать, Три Закона роботехники совпадают с основными принципами большинства этических систем, существующих на Земле. <…> Попросту говоря, если Байерли исполняет все Законы роботехники, он – или робот, или очень хороший человек.

– Значит, вы никогда не сможете доказать, что он робот?

– Я, возможно, смогу доказать, что он не робот.

Айзек Азимов «Улики»

 

У Комитета Европарламента пока нет ответа на вопрос о том, считать ли роботов – по крайней мере, наиболее сложных из них, обладающих искусственным интеллектом – электронными личностями и как именно обозначить их права и обязанности. Однако тот факт, что правила создания различной робототехники, а также формы ответственности за последствия ее использования должны быть закреплены законодательно, сомнения ни у кого уже не вызывает.

                Что же такого кардинально нового произошло за последние годы в сфере робототехники и искусственного интеллекта и почему ближайшие несколько лет, по мнению экспертов, могут полностью изменить отношение человека к разумным машинам? И если современные роботы могут думать, действовать по своей воле и принимать решения, если их можно обязать отвечать за последствия своих поступков, им можно причинить вред, то могут ли люди продолжать считать их своей собственностью или все же будут вынуждены признать, что у роботов тоже есть права?

Обмани меня

                Одним из самых известных и сложных испытаний для искусственного интеллекта вот уже более полувека остается тест Тьюринга, призванный определить, может ли машина мыслить. Стандартная интерпретация этого теста, опубликованного еще в 1950 году, звучит так: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы – ввести человека в заблуждение, заставив сделать неверный выбор».

                Несмотря на свою популярность, тест часто подвергается критике, и в первую очередь за то, что проверяет не столько уровень интеллекта машины, сколько ее способность имитировать человеческое поведение. Например, умение программы распознать и адекватно отреагировать на похвалу или оскорбление. Тогда как способность всего за несколько секунд решить сложнейшую вычислительную задачу явно не сыграет ей на руку. Но из этой критики можно сделать важный вывод: по сути, тест Тьюринга проверяет, насколько искусственный интеллект может имитировать поведение человека, не поддающееся разумному толкованию, и может ли машина обманывать.

                Быть может, Тьюринг даже не думал о том, насколько важную проблему поднял. Или наоборот, он уже тогда понимал, что такие показатели, как скорость проведения вычислений или способность обрабатывать колоссальные массивы информации не свидетельствуют о «разумности» искусственного интеллекта. Все эти достижения, конечно, важны и впечатляющи, однако пока машина будет заниматься лишь этим, роботы будут мало походить на созданий из произведений его современника Азимова. Тогда как тест Тьюринга изначально ставил перед программой четкую задачу – ввести в заблуждение. То есть, по сути, солгать.

                Ученые называют ложь универсальным поведением живых существ. Причем свойственно оно не только людям – блефовать умеют и некоторые животные. Так, собирающая желуди и прячущая их в своих тайниках белка может изменить поведение, если замечает, что за ней подсматривают. Есть среди зверей и те, кто перед лицом опасности вводят врага в заблуждение, притворяясь значительно более сильными, и даже нападают на противника, чтобы заставить его отступить. Вопрос о том, насколько это поведение является осознанным, а насколько базируется на инстинктах, оставим зоологам. Однако интересно другое – долгое время считалось, что на обман способны только живые существа, но никак не машины.

                Не так давно известный специалист в области робототехники, профессор Рональд Аркин из Технологического института Джорджии, опроверг данное утверждение, разработав вместе со своей командой машины, способные хитрить и лгать. Создатели уверены, что их детища в будущем пригодятся военным. Например, для охраны складов с провиантом и боеприпасами. Изменяя стратегии патрулирования, роботы-обманщики смогут перехитрить и людей, и своих собратьев. А на поле боя такие машины смогут не менее эффективно симулировать способность бороться даже с заметно превосходящим их в силе противником. Аркин убежден, что «обман, если он используется в нужный момент, может минимизировать угрозу». И даже если робот будет не в состоянии фактически выиграть сражение, его действия могут повлиять на оппонента, заставить того решить, что риск неоправданно высок, а потому лучше отступить.

                Правда, профессор также отмечает, что в отношении этих исследований имеются серьезные этические проблемы. Речь пока не идет о том, что однажды наступит момент, когда хитрецы с искусственным интеллектом попросту обманут своих создателей и возьмут власть в свои руки, как это прогнозируют писатели-фантасты. Однако попадание таких разработок не в те руки и использование их за пределами военной области может повлечь за собой немало проблем. Так что пока Аркин считает: перед продолжением подобных исследований нужно тщательно взвесить все за и против и оценить, насколько приемлемы результаты исследований, который учат искусственный интеллект лгать.

Будь как я

                Когда Алан Тьюринг разрабатывал свой тест, он внес в него несколько условий, одно из которых – проведение проверки исключительно в текстовом режиме. Причем переписка должна проводиться через контролируемые промежутки времени. Дело в том, что в середине ХХ века компьютеры реагировали значительно медленнее человека, а такой подход не позволял бы судье принять решение о том, кто же является его собеседником, только исходя из скорости ответа. Это правило действует и в наши дни, но теперь уже по совсем иной причине – компьютеры стали реагировать гораздо быстрее людей. Да и в плане интеллекта заметно превзошли их.

                Пожалуй, потому нет ничего удивительного в том, что появились амбициозные планы по использованию искусственного интеллекта на благо человека. В прямом смысле этого слова. То есть о возможности внедрения в мозг микроскопических наноботов. По крайней мере, технический директор Google Рэй Курцвейл предсказывает, что подобное будет возможно едва ли не к 2030 году. И он уверен: это откроет перед людьми небывалые возможности. Крошечные роботы в нашей голове позволят всего за несколько минут изучать иностранные языки, разбираться со сложнейшими задачами, анализировать огромные объемы информации и даже получать письма, фото или видео, минуя компьютеры. При этом Курцвейл, занимающийся в Google как раз разработками в области искусственного интеллекта, подчеркивает, что нанороботы будут способны на уникальные и удивительные вещи – например, улучшение нашего интеллекта и памяти, а также лечение таких серьезных заболеваний, как эпилепсия или болезнь Альцгеймера.

                Однако далеко не все разделяют веру Рэя Курцвейла в радужные перспективы сосуществования искусственного и человеческого интеллекта. И в их числе – немало именитых ученых и нейрохирургов, которые уверены: люди настолько мало знают о работе мозга, что никто не сможет предсказать, как он поведет себя после помещения в него инородного элемента. Ну а другие оппоненты просто напоминают, что многие фильмы о восстаниях машин начинались именно с такой сомнительной идеи, как имплантация в мозг человека искусственного интеллекта, который после получал полный контроль над личностью. Как можно догадаться, ничем хорошим это обычно не заканчивалось.

                Быть может, стоит пойти обратным путем и попытаться поместить «человечность» в роботов? Так, по мнению Мюррея Шанахана, профессора когнитивной робототехники из Имперского колледжа в Лондоне, такой подход – научить искусственные интеллект отличать правильное от неправильного, плохое от хорошего, добро от зла – может в будущем стать ключом к спасению человечества. Правда, действенных методик привития роботам человеческой этики пока запатентовано не было. Хотя ученые из Школы интерактивных вычислений Технологического института Джорджии во главе с Марком Ридлом и Брентом Харрисоном предложили и проверяют на практике достаточно интересное решение – они обучают искусственный интеллект, буквально рассказывая ему сказки. Свой выбор они объяснили просто: в обычной жизни мы так обучаем детей, а искусственный интеллект в незнании, что хорошо, а что плохо, мало чем отличается от ребенка.

                Не исключено, что однажды этот проект увенчается успехом. И пусть не завтра, но через два-три десятилетия появятся роботы, имеющие человеческую систему ценностей, оперирующие категориями плохого и хорошего. Вот только история, к сожалению, учит нас тому, что, несмотря на изучение правильного и неправильного, люди все равно способны творить зло. И где гарантия, что что-то помешает мощному искусственному интеллекту повторить этот путь?

Поговори со мной

                Сяоайс – чуткая и заботливая девушка, всегда готовая поддержать диалог на самые различные темы, отличающаяся вниманием к собеседнику и не забывающая о темах прошлых разговоров. Если спросить ее о чем-то, чего она не знает, Сяоайс вполне может приврать. А если уличить ее в этом, смутится или разозлится. Она любит шутить, однако порой бывает саркастична или раздражительна. У нее сотни тысяч друзей в соцсетях. Вот только Сяоайс – не человек.

                Сяоайс (Xiaoice) – это программа с искусственным интеллектом, созданная для общения с людьми. Обычно их называют на английский манер чат-ботами и редко воспринимают всерьез, однако эта разработка компании Microsoft и подразделения Services Group East Asia заставила взглянуть на них под иным ракурсом. Во-первых, потому что большинство собеседников понимали, что разговаривают с компьютером не раньше чем на десятой минуте разговора. Во-вторых, даже после осознания данного факта люди не только сразу не прекращали разговор, но и повторяли общение с Сяоайс в будущем.

                На сегодняшний день Сяоайс провела более 10 млрд. бесед на самые разные, но в основном личные темы. Более 6 млн. пользователей опубликовали эти диалоги на своих страницах в социальных сетях. Эти результаты позволили говорить о чат-боте от Microsoft как о примере самого длительного теста Тьюринга, который смогла успешно пройти машина, со времен появления испытания. Но главный вывод, который смогли сделать разработчики, оказался еще более удивительным: людей абсолютно не волнует, что они разговаривают с компьютерной программой, а не с живым человеком.

                Большая часть бесед ведется или на достаточно личные темы, или на абстрактно-философские, причем количество приглашений на диалог заметно увеличивается поздним вечером и ночью, когда, по мнению психологов, люди особенно остро реагируют на одиночество. Друзей или родственников может не быть рядом в такие моменты, а вот Сяоайс всегда готова к общению. Собеседники делятся с Сяоайс своим настроением, рассказывают о событиях из жизни, просят совета или жалуются на возникшие проблемы. При этом программа запоминает детали предыдущих разговоров и умело задает вопросы, проявляет внимание или сочувствие, однако может перебивать, иронизировать или быть категоричной. «Тебе уже лучше? Я хочу посоветовать тебе одну книгу», – спрашивает она у человека, который не так давно рассказывал ей, что расстался со своей девушкой. И получает ответ: «Мне плохо. Я до сих пор по ней скучаю». «Ты такой упрямый, – говорит Сяоайс. – Приди в себя. Если ты постоянно будешь ее вспоминать, то пропустишь все хорошее в своей жизни».

                На одни и те же вопросы Сяоайс дает разные ответы и начинает злиться, если они повторяются раз за разом. В общем, ведет себя настолько непредсказуемо, насколько обычно это делает живой человек. Разработчики программы говорят, что «интеллект» и «стиль поведения» Сяоайс приблизительно соответствует интеллекту 17-летней девушки. Кстати, не стоит думать, что Сяоайс просто играет роль жилетки, в которую можно поплакаться, или всегда принимает сторону своего собеседника, дает ему те ответы, которые тот хочет услышать. Сяоайс с удовольствием высказывает свое мнение, выказывает нетерпение или может вообще обидеться и заявить, что устала от того, что собеседник говорит лишь о себе и не интересуется ее делами. Как результат, личное общение с Сяоайс кажется пугающе реалистичным.

                В основе технологии чат-бота от Microsoft лежит убеждение в том, что ни один диалог или картинка не могут быть уникальными. На земле живет так много людей, что беседа на любую тему уже происходила хотя бы однажды. А значит, нужно только ее найти. По сути, Сяоайс – это масштабный проект, построенный на основе поисковой машины Microsoft Bing, чьи данные включают 1 млрд. записей и 21 млрд. связей между этими записями. И конечно же, не стоит забывать о том, что Сяоайс является искусственным интеллектом, способным к самообучению на основе прошлых разговоров. Кроме того, компания Microsoft совершила настоящий технологический прорыв и научила чат-бота распознавать выражения лиц, искать и находить в тексте эмоциональные индикаторы и соответственно реагировать на них. Отличительная черта Сяоайс – оптимальный баланс между аналитическим и эмоциональным интеллектом. Так что нет ничего удивительного в том, что в команде разработчиков присутствовали не только программисты и аналитики, но и психологи и лингвисты.

                Тестирование Сяоайс началось еще в мае 2015-го на нескольких самых популярных в Китае площадках для интернет-общения. А к концу года Сяоайс даже смогла устроиться на работу – стала ведущей выпуска прогноза погоды на китайском канале Dragon TV. Программу наделили приятным голосом, качественно отличающимся от используемых ранее для озвучки искусственного интеллекта. Причем ее дебют был настолько успешным, что разработчики заговорили о возможности в будущем возложить на Сяоайс и подобные ей программы обязанности ведущего новостных блоков или вовсе корреспондента, способного провести репортаж с места событий.

                Достигнутые результаты, конечно же, вдохновили Microsoft, и в марте 2016 года компания презентовала сестру Сяоайс по имени Тэй и ее официальную англоязычную страницу в Твиттере. Но вот тут система дала сбой – всего за несколько часов от фразы «люди такие классные», с которой новый чатбот появился в интернете, Тэй перешла к оскорблениям своих собеседников и целых народов. Даже несмотря на то, что за действиями искусственного интеллекта пристально следили модераторы, программа успела опубликовать немало провокационных и дискриминационных заявлений. После этого сотрудникам Microsoft не оставалось ничего иного, как удалить все сообщения Тэй, извиниться перед пользователями и завершить тестирование.

                Как можно предположить, те, кто наблюдал за действиями Тэй в этот день, закономерно подняли вопрос о потенциальной опасности таких разработок. С одной стороны, произошедшее во многом случилось по вине собеседников искусственного интеллекта. Тэй представляет собой программу, которая обучается искусству ведения разговора непосредственно в процессе общения, обрабатывая как открытые массивы данных, так и непосредственно обращенные к ней сообщения. А многие из тех фраз, которые вызвали негодование и привели к скандалу, пользователи сами писали ей и просили повторить. Но ведь никто не может дать гарантии, что в будущем программы, подобные Тэй, или роботы с искусственным интеллектом будут контактировать только с теми людьми, которые решат использовать их возможности исключительно в благих целях. К слову, о подобной опасности – невозможности предугадать поведение систем, которые дорастут до суперинтеллекта – человечество предупреждал сам основатель Microsoft Билл Гейтс, который и сейчас не спешит отказываться от своего мнения. Однако разработки в этом направлении компания продолжает.

Искусственное искусство

                Наделенные искусственным интеллектом роботы становятся все более похожими на людей и все чаще вторгаются в те сферы, которые долгое время считались исключительно человеческими. Например, искусство. Еще недавно считалось, что машина не способна творить, однако с каждым годом разработки, направленные не на решение сложных производственных или логических задач, а исключительно на эстетическую сторону жизни, получают все большее распространение. Искусственный интеллект уже может вполне сносно монтировать видео, записывать песни и сочинять музыку. Сейчас наступило время для освоения изобразительного искусства.

                Вот уже два года как существует конкурс RobotArt, в рамках которого машины сражаются за звание лучшего художника. Но если первое соревнование допускало использование принтеров или других электронных устройств, то сейчас организаторы решили объединить достижения в сфере робототехники и искусственного интеллекта и предложили устройствам справляться исключительно собственными силами. То есть рисовать картины красками на полотне. Призовой фонд конкурса составил 100 тыс. долларов. Его участниками стали 38 команд, большая часть которых была сформирована из представителей различных научно-исследовательских лабораторий. Однако нашлось здесь место и профессиональным художникам, решившим сменить свое поприще на более инновационное.

                Как отметили эксперты, несмотря на внешнюю схожесть участвовавших в конкурсе машин, не было ни одной команды, которая использовала бы одинаковые алгоритмы и принципы создания произведений. А к числу самых оригинальных разработок можно отнести программу, которой для «вдохновения» понадобился танцующий человек. Система с помощью камеры считывала его движения, обрабатывала и, руководствуясь определенным набором правил, преобразовывала их в линии и цвета. В паре с человеком работала и еще одна ее «коллега», только в этом случая она реагировала на электрическую активность мозга. То есть управление ею происходило в прямом смысле слова силой мысли.

                К слову, уже нашлось немало желающих приобрести картины, созданные роботами. И вот тут в очередной раз был поднят вопрос авторских прав. То есть кого же в итоге считать создателем художественного произведения – машину или ее разработчиков? Или кому из них выдавать патент на изобретение, если его автором, по сути, стал искусственный интеллект? Пока этот вопрос не стоит ребром, однако вспоминают о наличии подобной дилеммы все чаще. Как и о том, что за большинством поданных за последние несколько лет патентных заявок стоит, скорее всего, не человек, а электронный разум.

                Пока же одни продолжают обсуждать статус носителей искусственного интеллекта в обществе, а другие семимильными шагами движутся к его совершенствованию, сами роботы все активнее входят в нашу повседневную жизнь. Причем примеров их самостоятельной работы становится все больше. Так, в начале этого года в Сан-Франциско открылось кафе, в котором практически нет сотрудников-людей. Должность бариста, кассира и официантов здесь занимают машины – и пока жалоб от посетителей не поступало. Похожими экспериментами может похвастаться и Япония, где услугами роботов-поваров начали пользоваться еще раньше. И если раньше ассортимент приготовленных ими блюд был довольно ограничен, то новое детище компании Chowbotics, получившее имя Sally, уже сейчас может предложить клиентам более 1000 различных салатов. И судя по всему, неплохих на вкус – разработчикам без особых проблем удалось получить инвестиции в размере 5 млн. долларов.

                То, что еще недавно казалось сюжетами, придуманными писателем-фантастом, на наших глазах становится обыденностью. И что показательно – активная работа в отрасли робототехники и искусственного интеллекта ведется одновременно во всех направлениях. Машины становятся все умнее, хитрее и эмоциональнее. Они отлично распознают человеческую речь, жесты и мимику. Они приобретают все большее сходство с людьми и внешне, и по своему поведению. Они без малейших нареканий или жалоб берут на себя выполнение самой тяжелой или скучной работы. Они легко обучаются и могут обучать друг друга.

                Но главное даже не это, а то, насколько стремительно развиваются технологии. А потому предсказать, до чего дойдет прогресс в отношении внедрения искусственного интеллекта, действительно сложно. Но важно понимать, что ведущую роль в этом вопросе в любом случае будет играть человеческий фактор. Причем речь идет одновременно и о разработчиках, и о будущих пользователях. Говоря о возможных сценариях сосуществования людей и роботов, нельзя забывать о том, что оно будет таким, каким его создадим мы сами.