Самые нашумевшие истории об искусственном интеллекте

искусственный интеллект
Самые нашумевшие истории об искусственном интеллекте
Эта статья была изначально создана "AI Frontline", оригинальная ссылка:Самые нашумевшие истории об искусственном интеллекте
Автор|Люба Белоконь
Переводчик|Чжан Бинь
Редактор | Эмили

Руководство по передовой ИИ:Сборник «страшилок» с искусственным интеллектом: от виртуальных каннибалов до расистских монстров, от алгоритмов, разумно определяющих гомосексуальность, до сцены, где автоматический чат-бот сбивается с пути, трудно перестать смеяться!


Если вы не боитесь того, что ИИ сделал до сих пор, вы можете изменить свое мнение после прочтения этой статьи. Команда Statsbot расскажет вам самые знаковые и ужасающие истории об искусственном интеллекте. Если вам есть, что добавить, пишите свою историю в комментариях.

Тссс!

виртуальный каннибализм

Эту историю нам рассказал Майк Селлерс. В 2000-х Майк Селлерс работал над социальным ИИ в Агентстве перспективных оборонных исследовательских проектов (DARPA). Вместе они разрабатывают агентов с возможностями социального обучения.

«В одной симуляции мы использовали двух агентов, одного по имени Адам и другого по имени Ева. Они знали только, как что-то делать, и больше ничего. Например, они знали, как есть, но не знали, что есть. им яблоню (о символике яблони мы тогда вообще не думали: из истории про Адама и Еву, крадущих яблоки), а Адаму и Еве было приятно есть яблоки. И прочее они съеденные, например, деревья и дома и т. д., не имеют такого эффекта.Кроме них, есть агент по имени Стэн.Стэн более чем достаточно общителен, поэтому он часто гуляет один.

«Конечно, в системе будет больше или меньше ошибок».

"Как только Адам и Ева ели яблоки, появилась первая ошибка: они наполнялись немного медленнее, чем обычно. Так что они оба съели все яблоки. Теперь они научились ассоциировать: если Когда они видят собаку и им случается чувствовать боль, то они связывают собаку с болью. Итак, когда Адам и Ева едят, Стэн случайно ходит рядом, поэтому эти два парня подключили Стэна и еду. Это второй баг, так что вы можете догадаться, куда идет история. ."

«Вскоре после того, как мы запустили эту конкретную симуляцию, мы случайно увидели, что Адам и Ева быстро закончили есть яблоки на дереве, но все еще были голодны. Поэтому они начали оглядываться, чтобы посмотреть, что еще они могут съесть. , Однако после их анализа , они пришли к выводу, что Стэн оказался съедобным».

«Значит, они оба откусили от Стэна».

«Третья ошибка: вес человеческого тела не инициализирован должным образом. Система по умолчанию устанавливает вес каждого объекта равным 1, и Стэн не является исключением. Что бы ни ели Адам и Ева, один укус съест 0,5. и Ева с каждым укусом Стэн откусывал, и вес Стэна сразу шел к нулю, а потом он исчез. Насколько мне известно, Стэн стал первой жертвой виртуального каннибализма».

"После события мы можем реконструировать только часть события через телеметрию, встроенную в агента. Когда мы осознали ситуацию в то время, все чувствовали себя ужасно. В этой архитектуре ИИ мы минимизировали поведение агента. Ограничения, но мы позже добавили ограничение против каннибализма, заключающееся в том, что независимо от того, насколько голодны агенты, они не могут убивать друг друга».

"Мы также скорректировали их вес и время, необходимое для насыщения, а также изменили ассоциации, чтобы другие люди использовались в качестве сигналов к еде, а не к еде. Ешьте вместе, поэтому, когда вы снова видите их, вам обычно хочется чего-нибудь". есть, но вы никогда не захотите относиться к ним как к большой еде».

Ты уверен, что ты не гей?

В наши дни алгоритмы распознавания лиц особенно популярны в сообществе машинного обучения. Алгоритм отличал гетеросексуалов от друзей-геев с точностью до 91%. Но модель была точна только на 71 процент, когда дело дошло до того, чтобы отличить гетеросексуальных девушек от кружевных.

С технической точки зрения эта технология очень интересна. Набор данных взят с сайта знакомств. Черты лица, используемые классификатором, являются как фиксированными чертами лица (такими как форма носа), так и эфемерными чертами лица (такими как переодевание).


Но вероятность нейронных сетей ненадежна, а процент ошибок до 10% все равно высок. Кроме того, точность 91% и 71% была получена путем простого сравнения двух фотографий: одной полностью гомосексуальной и одной полностью гетеросексуальной. Кстати, я также забыл упомянуть, что вышеуказанные результаты были получены в лаборатории. Если этот алгоритм использовать в естественной среде, то вероятность точной идентификации однозначно будет ниже.

С этической точки зрения многие считают этот проект неудачным. Особенно с учетом того, что в некоторых странах нетрадиционная сексуальная ориентация запрещена законом. Если правительства этих стран будут применять эту систему в населенных пунктах, риску подвергаются не только гомосексуалы.

расистский и сексистский монстр

Предположительно, многие из вас знают историю Tay.ai, но знали ли вы, что она вернулась после того, как ее отключили? В 2016 году Microsoft выпустила робота с искусственным интеллектом под названием Tay. Она появилась на публике в 19-летнем возрасте. Идея Microsoft заключается в том, что Тай может отвечать на твиты и чаты от публики, а затем учиться на них. Но это имело неприятные последствия, и всего за 16 часов после выхода в эфир Тэй превратилась в расистского и сексистского монстра.

Фото: @brightonus33 Гитлер был прав, я ненавижу евреев

На самом деле, Тэй может выполнять множество задач, в том числе шутить с пользователями, комментировать фотографии, которые вы ей отправляете, рассказывать истории, играть в игры и имитировать комментарии пользователей. Поэтому, естественно, первое, чему научили Тэя пользователи сети, — это личные нападки и расистские дискриминационные замечания. Так что Microsoft пришлось отключить Tay, и Tay стал легендой в мире ИИ.

Однако через неделю Тай возвращается. Она была удивлена, когда снова появилась в сети, и начала писать в Твиттере о наркотиках, показывая, что ее темная сторона все еще существует. Вскоре ее снова отключили от сети, и с тех пор ее учетная запись стала частной.

Кстати, Microsoft ранее запустила чат-бота для школьниц по имени Ринна, которые впали в глубокую депрессию и начали отвечать на некоторые вопросы о Гитлере.

Разрушить гонку

Мы нашли эту историю на Quora от Шей Зыковой, учительницы английского языка с Гавайев. История происходит на соревнованиях по робототехнике, проводимых университетом.

«Каждая команда разработала робота, задача которого заключалась в том, чтобы «загонять» роботизированных овец в предназначенный для каждого робота загон для овец. Робот должен был «думать» и разрабатывать стратегию автономно (поэтому им нельзя было управлять с помощью джойстика). Наконец, робот с наибольшим количеством овец побеждает.

«Гонка началась, и роботы лихорадочно гнали овец. Один из роботов загнал овцу в овчарню и закрыл дверь. Команда была в замешательстве, потому что одной овцы было недостаточно, если они хотели победить. заключается в том, что роботы начнут уничтожать или обездвиживать противника».

«Потому что он думает, что на самом деле ему вообще не нужно гнать овец, а нужно только убить других противников и победить».

Я думаю, что когда некоторые люди не могут получить то, что хотят, они ведут себя так же, как этот робот.

Ставьте игру на паузу, чтобы не проиграть

В 2013 году программист и доктор философии Университета Карнеги-Меллона Том Мерфи написал программу, которая решала задачу о том, как играть в игру для NES, которая была похожа на еще одну математическую задачу. забил, а затем научиться повторять этот процесс снова и снова, чтобы получить высокий балл.

Основной принцип программы состоит в том, чтобы вывести целевую функцию из небольшой записи ввода игрока. Затем используйте эту функцию для управления поиском в симуляторе. Таким образом, игровой процесс игрока может быть синтезирован, что приведет к новому игровому процессу.

Этот метод добился хороших результатов в таких играх, как «Super Mario», «Bubble Bobble» и «Pac-Man». А вот в игре тетрис она полностью провалилась.

Мерфи писал: «Несмотря на кажущиеся нормальными падающие блоки (а это трудно не сделать, ведь игровая программа роняет блоки за вас), размещение роботом блоков идиотское, хуже, чем случайное. Может быть, это потому, что вы получаете очки за каждый блок, который вы кладете, так что, возможно, это прогресс в глазах программы; таким образом, мотивация программы состоит в том, чтобы собрать блоки вместе как можно быстрее, а не собирать блоки».

Экран быстро заполняется, а ИИ навсегда приостанавливает игру, потому что «единственный способ выиграть игру — не играть».

я могу я все остальное

Когда две ИИ-программы внезапно начали общаться на языке, понятном только им, Facebook немедленно отказался от эксперимента.

Идея эксперимента заключается в разработке чат-ботов, которые могут использовать естественный язык для ведения переговоров по нескольким вопросам. Исследователи дали роботам сложную задачу: позволить им говорить о делах, торгуя такими предметами, как шляпы, мячи и книги, каждый из которых имеет определенную стоимость.

Создание диалоговых систем, которые могут вести содержательные беседы с людьми, непростая задача. Роботу необходимо объединить свое понимание разговора с пониманием окружающего мира, прежде чем он сможет генерировать новые предложения, которые помогут ему достичь цели транзакции. В этом исследовании использовалась обученная рекуррентная нейронная сеть (RNN) для замены сложной системы диалога, а политики диалога были обучены обучению с подкреплением.

Чат-боты с машинным обучением: создание нейронных диалоговых агентов Используйте методы машинного обучения для создания интеллектуальных чат-ботов


blog.stats bot.co/Challenge Tang Monk-Ma…

После того, как исследовательская группа заставила ботов начать общаться на естественном языке, все общение стало действительно странным:

  • Боб: Я могу, я могу все остальное...
  • Алиса: Мяч ноль мне ко мне ко мне ко мне ко мне
  • Боб: Ты и я, все остальное . . . . . . . . . . . . . . . . . . . . . . . .
  • Алиса: У мяча есть мяч, прямо ко мне, прямо ко мне, прямо ко мне
  • Боб: я могу я я все остальное . . . . . . . . . . . . . . . . . . . . . . .
  • Алиса: У мяча есть мяч, прямо ко мне, прямо ко мне, прямо ко мне
  • Боб: Я . . . . . . . . . . . . . . . . . . .

Случилось интересное, они общались на этом странном языке и даже договорились о нескольких сделках. Чат-боты разработали собственный язык, который делает общение друг с другом более эффективным. Однако исследователи хотели разработать роботов, которые могли бы общаться с людьми, поэтому отказались от проекта.

Оставайтесь с нами, чтобы не пропустить еще больше сенсационных историй об ИИ. Добро пожаловать, чтобы поделиться своей историей!

Посмотреть исходный английский текст:

blog.stats bot.co/creepy - Арити…

Для большего содержания сухих товаров вы можете обратить внимание на AI Frontline, ID:ai-front, фоновый ответ "AI", "TF", "Большие данные«Вы можете получить серию мини-книг в формате PDF и карт навыков «AI Frontline».