Первый закон робототехники впервые нарушен. Роботы становятся опасными

Исследователь из США создал робота, способного полностью игнорировать первый закон робототехники и вполне осознанно нанести вред человеку. Внешне безобидное устройство, тем не менее, может принять самостоятельное решение о нападении на Homo Sapiens. Своим исследованием Александр Ребен из университета Беркли, хочет доказать необходимость создания красной кнопки, которая сможет нейтрализовать механизмы наделенные интеллектом в том случае, если они задумают недоброе против людей.

Робот может причинить вред

Разработка Александра Ребена представляет собой небольшое устройство со специальным местом для пальца. Исследователь помещает палец в паз, а искусственный интеллект принимает решение, разрешить это действие или нет, используя для этого собственную, нечеловеческую логику. При отрицательном решении в палец, размещенный в аппарате, вонзается игла. Ребен сообщил, что даже он, являясь создателем этого устройства, не знает как себя поведет искусственный разум и произойдет укол или нет.

Конечно, робот с иглой это не первый механизм, рассчитанный на нанесение вреда человеку. Всем отлично известны роботы и летающие дроны, оснащенные стрелковым и даже ракетным вооружением. Но, оказывается, на первый взгляд безобидная миниатюрная игрушка с иглой, гораздо опаснее беспилотного летательного аппарата с ракетами и пулеметами, так как военные роботы пока не могут принимать решений без оператора. Детище Александра Ребена решает само навредить человеку или нет и если его AI поместить в боевого робота, то последствия будут ужасными.

Боевой робот

На первый взгляд может показаться, что ученый из Калифорнии является ярым противником роботов, который стремится доказать их опасность. Это далеко не так Ребен давно известен как талантливый разработчик самых различных роботов и электронных устройств, среди которых робот-массажист, музыкальная шкатулка, использующая для работы энергию солнца и робот-собеседник для стеснительных людей. Создание жестокого робота, по словам Александра, всего лишь попытка доказать человечеству, что к созданию существ с искусственным интеллектом нужно относиться очень осторожно и всегда заранее обдумывать все возможные варианты их поведения и варианты нейтрализации роботов.

Боевые роботы

Сегодня роботы еще не интегрировались в человеческое сообщество, но этот момент с каждым днем все ближе. Уже появились роботы-официанты, роботы-продавцы, а некоторые компании даже приняли на работу роботов-менеджеров. Созданная в Китае девушка-чатбот Сяоайс является другом миллионов людей во всем мире и помогает многим бороться с одиночеством.

Кстати, пример Сяоайс может быть очень полезен: чатбот с интеллектом от Microsoft, вел себя прилично, пока общался с собеседниками на китайском языке. Но стоило обучить Сяоайс английскому и тем самым открыть путь в Твиттер, робот изменился до неузнаваемости. Самообучающийся интеллект, который после обучения новому языку дали имя Тэй, почерпнул из Сети массу негатива, в том числе ругательства и шутки на расистские темы. Разработчики Сяоайс-Тэй были вынуждены остановить эксперимент, так как чатбот окончательно распоясался и стал несносным в общении.

Некогда основатель Microsoft, Билл Гейтс заявил, что роботы могут стать незаменимыми помощниками человека на производстве и дома, но как только они дорастут до сверхинтеллекта, предсказать их действия будет практически невозможно. В 2015 году астрофизик Стивен Хокинг, учредитель и генеральный директор Tesla и SpaceX Илон Маск и Стив Возняк, один из основателей Apple, подписали официальное письмо, в котором высказали свои опасения в связи с проектами, связанными с внедрением искусственного разума в военных роботов. По их мнению, использование AI в оборонной сфере приведет к новой эпохе гонок вооружений. Кроме этого, если подобные разработки попадут в руки к преступникам или террористам, последствия будут просто ужасными. По мнению Хокинга, Маска и Возняка, эта проблема не является фантастической или надуманной и при современных тенденциях в мире робототехники самые неблагоприятные сценарии могут наступить уже в ближайшие годы.

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (Пока оценок нет)
Загрузка...
Понравилась статья? Поделиться с друзьями:
Цифровые технологии: новости, обзоры, инструкции которые помогут Вам лучше жить с технологиями
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: