Отец Кераса: меня беспокоит, что ИИ манипулируют социальными сетями

искусственный интеллект алгоритм продукт Facebook
Отец Кераса: меня беспокоит, что ИИ манипулируют социальными сетями
Редактор отдела планирования | Натали
Автор | Франсуа Шолле
Переводчик |
Редактор | Эмили
Руководство по передовой ИИ:Утечка пользовательских данных Facebook стала крупнейшим скандалом в истории социальных сетей и вызвала бесчисленные дискуссии в крупных СМИ в стране и за рубежом.

Прошлой ночью Франсуа Шолле, инженер Google и автор знаменитой библиотеки глубокого обучения Keras, опубликовал в блоге Medium статью под названием «Почему я беспокоюсь об ИИ». Франсуа Шолле считает, что компании и разработчики технологий должны использовать искусственный интеллект не как инструмент для манипулирования пользователями, а как мощное оружие, которым пользователи действительно могут овладеть. На момент публикации эта статья набрала более 2200 лайков.

В начале статьи Франсуа Шолле сказал, что наши страхи и опасения по поводу искусственного интеллекта были в ложном направлении, точно так же, как наши страхи по поводу компьютерных технологий в 1980-х и 1990-х годах, эти страхи в основном проистекают из иррационального мышления, а реальная проблемам событий не уделяется должного внимания.

Итак, о каких проблемах с искусственным интеллектом нам действительно следует беспокоиться? Как технические специалисты должны решать эти проблемы? Эту статью стоит прочитать всем бизнес-менеджерам и разработчикам технологий.

Для получения дополнительных галантерейных товаров, пожалуйста, обратите внимание на публичный аккаунт WeChat «AI Frontline» (ID: ai-front)

Ниже приводится полный текст статьи Франсуа Шолле на Medium «Что меня беспокоит в ИИ», составленный AI Frontline.

Отказ от ответственности: эта статья представляет собой только мое личное мнение и не имеет ничего общего с бизнесом, в котором я работаю. Если вы цитируете содержание этой статьи, пожалуйста, будьте верны личным выводам в статье и делайте объективные суждения, исходя из реальной ситуации.

Если вы родились в 1980-х или 1990-х годах, вы, возможно, помните явление «компьютерофобии», которое давно исчезло. Проблема сохранялась до начала 2000-х — с полным проникновением персональных компьютеров в нашу жизнь, на работу и в дом многие люди стали испытывать тревогу, страх и даже агрессию. В то время как некоторые люди очарованы компьютерами и потрясены и взволнованы их огромным потенциалом, большинство людей не знают об этом типе технологий. Как будто они видели НЛО, они даже расценили это как серьезную угрозу. Другими словами, люди беспокоятся о том, что их заменят компьютерные технологии.

Многие люди на самом деле испытывают отвращение или даже панику в связи с технологическими изменениями. Хотя это явление присутствует в любых изменениях, важно подчеркнуть, что большинство последствий, которых мы опасаемся, не материализуются.

Через несколько лет любители компьютеров привыкли жить с компьютерами и помогают себе в своих интересах. Компьютеры не заменили людей и не стали причиной массовой безработицы. Наоборот, мы уже не можем представить жизнь без ноутбуков, планшетов и смартфонов. Чувствительность к угрозам означает подтверждение статус-кво. Но в то же время угрозы, о которых мы раньше беспокоились, возможно, исходящие от компьютеров и Интернета, на самом деле начинают принимать другую форму и вызывать проблемы. В 1980-х или 1990-х годах большинство людей не могли представить себе повсеместную массовую слежку, отслеживание инфраструктуры или личных данных, психологическое отчуждение в социальных сетях и потерю пользователем терпения и сосредоточенности. радикализация, и враждебные иностранные державы захватывают социальные сети, чтобы подорвать западные демократии.

Если раньше большинство страхов, которые мы привыкли, исходили из иррационального мышления, то большинству действительно тревожных событий, вызванных сегодняшними технологическими изменениями, в то время фактически не уделялось должного внимания.. Сто лет назад мы не могли точно предсказать, что транспортные и производственные технологии вызовут промышленную революцию, которая в конечном итоге унесет десятки миллионов жизней между двумя мировыми войнами. Мы также не осознавали, что подъем радио приведет к новой форме массовой пропаганды и, в конечном счете, к подъему фашизма в Италии и Германии. И развитие теоретической физики в 1920-е и 1930-е годы не заставило осознать, что вскоре оно грозит навсегда поставить весь мир на грань уничтожения в виде термоядерного оружия. К настоящему времени, несмотря на то, что была поднята тревога по центральному вопросу, который мучил человечество на протяжении десятилетий, — климатической проблеме, — большинство (44%) населения Америки по-прежнему предпочитает игнорировать ее. Как людям в цивилизованном обществе нам кажется трудным правильно определить будущие угрозы и быть обоснованно обеспокоенными или осторожными; с другой стороны, мы легко впадаем в панику из-за иррациональных суждений.

Сейчас, как всегда, мы снова сталкиваемся с фундаментальной волной перемен: когнитивной автоматизацией. В качестве альтернативы мы можем обобщить это с помощью искусственного интеллекта. И, как и в прошлом, мы по-прежнему обеспокоены тем, что этот новый тип технологий нанесет вред самому человечеству — либо ИИ может привести к массовой безработице, либо он получит автономию и станет сверхчеловеческим «видом», который в конечном итоге решит уничтожить человечество, чтобы достичь мира Датун.

Изображение предоставлено: facebook.com/zuck

Но наши страхи по-прежнему не в том направлении — как и в прошлом. Что, если реальная угроза искусственного интеллекта заключается не в «сверхразуме» или «теории сингулярности», которые в настоящее время больше всего беспокоят большинство людей?В этой статье я хочу обсудить настоящую озабоченность по поводу ИИ: эффективные и масштабируемые возможности, которые ИИ может реализовать для человеческого поведения, и то, что злонамеренные манипуляции принесут компаниям и правительствам. Конечно, развитие когнитивных технологий создаст и другие ощутимые риски, особенно проблемы, связанные с негативными предубеждениями в моделях машинного обучения. Но в этой статье основное внимание будет уделено проблеме крупномасштабных манипуляций с ИИ, учитывая, что они сопряжены с чрезвычайно высокими рисками и часто упускаются из виду.

Этот риск уже стал реальностью и будет продолжать расти с долгосрочным технологическим развитием в ближайшие десятилетия. По мере того, как наша жизнь становится все более цифровой, социальные сети будут становиться все более точными в наших суждениях о том, как мы живем и думаем. В то же время они начали все чаще использовать средства управления поведением — особенно с помощью алгоритмов распространения новостей — для контроля над тем, как мы потребляем информацию.Это означает, что человеческое поведение в конечном итоге станет классом проблем оптимизации или классом проблем, которые можно решить с помощью искусственного интеллекта: компании, работающие в социальных сетях, могут итеративно корректировать свои средства управления для достижения конкретных целей.Это похоже на то, что игровой ИИ продолжит корректировать свою игровую стратегию в соответствии со счетом и, наконец, успешно преодолеет текущий уровень. Единственным узким местом в этом процессе является уровень алгоритмического интеллекта в цикле. В настоящее время крупные социальные сети инвестируют миллиарды долларов в исследования искусственного интеллекта, чтобы преодолеть это узкое место.

Ниже позвольте мне уточнить.

Социальные сети представляют собой макропсихологическую тенденцию

За последние два десятилетия наша личная и общественная жизнь полностью перешли в онлайн. Мы смотрим на экраны все дольше и дольше. Человеческое общество в целом переходит в новое измерение, где большая часть нашей работы основана на цифровой информации, а потребление, модификация или созидательная деятельность целых наций также основана на цифровой информации.

Большим побочным эффектом этой долгосрочной тенденции является то, что предприятия и правительства собирают огромные объемы данных о людях, особенно через службы социальных сетей. С кем мы общаемся, что мы говорим, какой контент мы потребляем — включая изображения, фильмы, музыкальные новости и т. д., как мы себя чувствуем в определенное время и даже все наши восприятия и действия в конечном итоге будут записаны на определенном канале. на удаленном сервере.

Теоретически эти данные могут помочь коллекционерам построить очень точные ментальные профили отдельных лиц и групп. Наши мнения и действия могут сопоставляться с тысячами похожих людей, что приводит к кажущимся непостижимым выводам, которые гораздо более предсказуемы, чем чистый самоанализ (например, Facebook любит использовать алгоритмы для создания даже более точных профилей личности пользователей, чем впечатления друзей). Эти данные могут заранее предсказать, когда вы начнете новые отношения (и с кем), и когда ваши текущие отношения закончатся. Кроме того, какие пользователи рискуют покончить с собой, за какую сторону вы голосовали на выборах (даже мы этого не знаем) и т. д., можно подытожить достаточно точно. Эта аналитическая сила работает не только на индивидуальном уровне — большие группы будут более предсказуемы, потому что среднее поведение устраняет такие факторы, как случайность и индивидуальные аномалии.

Использование потребления цифровой информации как вектора психологического контроля

Конечно, пассивный сбор данных ни в коем случае не является его конечной целью. Социальные сети также начинают все больше контролировать информацию, которую мы потребляем. То, что мы видим в новостях, стало кураторским. Непрозрачные алгоритмы социальных сетей помогут нам решить, какие политические статьи читать, какие трейлеры к фильмам смотреть, с кем поддерживать связь и какую обратную связь получать после выражения личного мнения.

В сочетании с многолетними отчетами и анализом можно с уверенностью сказать, что сегодняшние алгоритмы управления потреблением информации уже обладают значительной властью в нашей личной жизни — даже ответы на такие вопросы, как кто мы и кем мы собираемся быть. Представьте себе, что в течение многих лет Facebook определяет, какой новостной контент вы можете видеть (независимо от того, правда это или нет), а затем политическая позиция каждого изменится, а это означает, что Facebook в конечном итоге будет контролировать наше мировоззрение и политическую позицию.

В основе бизнеса Facebook лежит воздействие на людей. И это основная услуга, которую он продает покупателям — рекламодателям, особенно политическим рекламодателям. На самом деле, Facebook Inc. создала точно настроенный алгоритмический механизм, который может не только влиять на то, как вы думаете о бренде или следующем продукте, который вы хотите купить, но даже влиять на настроение людей и корректировать доставку так, чтобы вы легко разозлились или разозлились. счастливый . В конечном счете, он даже имеет возможность контролировать исход выборов.

Поведение человека — проблема оптимизации

Короче говоря, социальные сети могут отслеживать все о нас и контролировать информацию, которую мы потребляем. Эта тенденция ускоряется.На самом деле все современные проблемы, связанные с восприятием и действием, в той или иной степени являются проблемами искусственного интеллекта.Мы можем создать цикл оптимизации человеческого поведения, в котором люди могут наблюдать за текущим состоянием цели и постоянно корректировать предоставляемую ей информацию, пока не придут к желаемому мнению и поведению.Важная часть области искусственного интеллекта прямо сейчас — в частности, обучение с подкреплением — лежит в основе разработки алгоритмов для максимально эффективного решения этих задач оптимизации, замыкания цикла и достижения полного контроля над целью. Другими словами, полный контроль над нами, людьми.В процессе переноса нашей жизни в цифровую сферу мы будем более восприимчивы к правилам, особенно к тем, которые устанавливаются алгоритмами искусственного интеллекта.

Циклы обучения с подкреплением для человеческого поведения

Поскольку человеческий разум очень восприимчив к простым способам социального манипулирования, работа упрощается. В качестве примера рассмотрим следующий вектор атаки:

  • Подкрепление идентичности: это тактика старой школы, которая широко использовалась с самого начала рекламы, но всегда работала хорошо. Это включает в себя связывание определенных точек зрения с маркерами, которые вы идентифицируете, управление алгоритмами в контексте потребления социальных сетей, чтобы гарантировать, что вы видите только контент (включая новости и сообщения от друзей), где местоположение точки зрения соответствует маркеру личности. не соответствуют вашей личности.

  • Негативное социальное подкрепление: если вы публикуете статью, в которой выражается мнение, которое контролирующий алгоритм не хочет, чтобы вы придерживались, система может выбрать показ вашей публикации только пользователям с противоположным мнением (это могут быть знакомые, незнакомцы или даже боты). другая сторона будет подвергнута жесткой критике. После многих повторений такая социальная обратная связь может привести к тому, что вы отклонитесь от своей первоначальной точки зрения.

  • Позитивное социальное подкрепление: если вы публикуете статью, в которой выражается мнение, которое алгоритм управления хочет, чтобы вы придерживались, он решит показывать контент только людям (возможно, даже ботам), желающим поставить «лайк», что укрепляет ваши убеждения и чувства. поддерживается большинством.

  • Смещение выборки: алгоритмы также могут показать вам больше друзей (или сообщений в СМИ), которые поддерживают ваши взгляды. В таком информационном пузыре вы почувствуете, что такая точка зрения имеет высокий уровень поддержки, хотя это может быть и не так.

  • Персонализация параметров. Алгоритмы могут заметить, что определенный контент с большей вероятностью вызывает смену позиции среди групп людей, психологические характеристики которых схожи с вашими. На этой основе алгоритм может публиковать целевой контент, основанный на конкретных точках зрения и жизненном опыте, чтобы эффективно завершить изменение позиции. В долгосрочной перспективе алгоритм может даже создавать «персонализированный» контент, специально предназначенный для вас, полностью сфабрикованный.

С точки зрения информационной безопасности вышеперечисленные практики можно назвать «уязвимостями безопасности», т.е. известными и доступными методами атаки для проникновения в систему. Что касается человеческого разума, то эти лазейки никогда нельзя исправить, потому что они таковы, как мы думаем.Они в нашей ДНК. Человеческий разум принадлежит к набору статичных и уязвимых систем и будет все чаще подвергаться атакам со стороны интеллектуальных алгоритмов ИИ. Эти алгоритмы полностью контролируют то, что мы делаем и во что верим, давая нам полный контроль над содержанием информации, которую мы потребляем.

Статус кво

Стоит отметить, что применение алгоритмов ИИ к нашему потреблению информации для крупномасштабного манипулирования населением, особенно политического контроля, часто не требует использования особенно продвинутых решений ИИ. При таких требованиях сверхинтеллектуальная система искусственного интеллекта с самосознанием явно немного расточительна, и даже существующие технологии уже хорошо справляются с этой задачей. Компании, занимающиеся социальными сетями, годами проводили исследования и добились замечательных результатов. Хотя их текущая цель может состоять просто в том, чтобы максимизировать ваше «вовлечение» и повлиять на ваши решения о покупке, а не манипулировать вашим взглядом на мир в целом, инструменты, которые они разработали, уже используются соперничающими державами в политических целях, в том числе в 2016 году. Референдум по Brexit 2016 года и президентские выборы в США 2016 года. Однако, поскольку стало возможным крупномасштабное манипулирование населением, почему весь мир не пал полностью?

Проще говоря, это потому, что наше признание ИИ недостаточно высоко. И все это может скоро измениться.

По состоянию на 2015 год алгоритмы таргетинга в рекламной индустрии все еще работают на основе логистической регрессии. Так обстоит дело и сегодня — только самые крупные и сильные компании могут переходить на более продвинутые модели. Логистическая регрессия — это алгоритм, появившийся до эпохи вычислений, а также одна из базовых технологий для достижения персонализированных эффектов. Из-за этого мы до сих пор видим в Интернете много рекламы, не связанной с нашими собственными потребностями. Точно так же боты в социальных сетях, используемые враждебными странами для влияния на общественное мнение, редко применяли технологию ИИ повсеместно. Пока они еще очень примитивны.

Однако в последние годы машинное обучение и искусственный интеллект быстро развивались, и их результаты быстро внедрялись в целевые алгоритмы и боты в социальных сетях. Глубокое обучение было введено в журналистику и рекламные сети только в 2016 году. Facebook вложил значительные средства в исследования и разработки в области искусственного интеллекта и явно хочет стать лидером в этой области. Итак, в контексте социальных сетей, какие преимущества принесет организациям создание возможностей обработки естественного языка и обучения с подкреплением?

Проще говоря, для такого бизнеса, как Facebook, с почти 2 миллиардами пользователей, возможность создавать подробные психографические модели такой большой пользовательской базы и манипулировать источниками новостей для проведения поведенческих экспериментов привела к развитию мощного искусственного интеллекта, которого раньше не было. , Технические решения. Лично меня эта ситуация пугает. Но что еще страшнее, так это то, что Facebook даже не самая серьезная угроза. Например, некоторые тоталитарные государства используют контроль информации для достижения беспрецедентных возможностей контроля. Хотя многие считают, что крупные корпорации являются всемогущими правителями современного мира, их власть далека от власти правительств. Когда дело доходит до использования алгоритмов для контроля над разумом, за всем этим, скорее всего, стоит правительство.

Итак, как мы ответим? Как мы можем защитить себя? Как нам, специалистам в области технологий, избежать такого массового манипулирования общественным мнением, вызванного распространением социальных новостей?

Обратная сторона медали: что нам может сделать искусственный интеллект

самое главное,Существование этой угрозы не означает, что все алгоритмические приемы ненадежны или что вся таргетированная реклама предназначена для промывания мозгов. На самом деле, оба могут также принести большую практическую ценность.

С появлением Интернета и искусственного интеллекта применение алгоритмов к потреблению информации стало не просто неизбежной тенденцией, а идеальной тенденцией. По мере того, как повседневная жизнь становится все более оцифрованной и взаимосвязанной, а весь мир становится все более насыщенным информацией, нам нужен искусственный интеллект, который действовал бы как наш интерфейс с миром. В долгосрочной перспективе образование и саморазвитие станут наиболее влиятельным направлением применения искусственного интеллекта. Эта помощь будет происходить динамически и почти точно так же, как злонамеренный ИИ пытается манипулировать нашим разумом, только на этот раз с добрыми намерениями. Алгоритмы управления информацией могут помочь нам максимизировать наш индивидуальный потенциал и построить лучшее человеческое общество за счет лучшего самоуправления.

следовательноПроблема не в самом ИИ, а в управлении.

Мы не должны использовать алгоритмы новостных лент, чтобы манипулировать пользователями — например, чтобы изменить их политическую позицию или тратить их драгоценное время. Мы должны сделать пользователя целью, за оптимизацию которой отвечает алгоритм. В конце концов, у нас должна быть автономия и контроль над новостями, мировоззрением, друзьями и даже личной жизнью, которую мы хотим видеть. Алгоритмы управления информацией не должны быть мистическими способностями, которые мы создаем для какой-то выгоды; скорее, они должны быть инструментами, которыми мы действительно можем управлять. Точнее, это должен быть инструмент, который мы можем использовать для достижения поставленных целей, таких как образование и развитие характера, а не развлечение.

Вот что я думаю: любой механизм новостной ленты, использующий алгоритм, должен:

  • Опубликуйте прозрачно, какие цели оптимизирует алгоритм в настоящее время и как эти цели влияют на эффективность вашего потребления информации.

  • Предоставьте пользователям интуитивно понятные инструменты для самостоятельной постановки этих целей, например, пользователи должны иметь возможность настраивать свои собственные источники новостей, чтобы максимально стимулировать обучение и личный рост в определенном направлении.

  • Измерьте, сколько времени вы тратите на эту информацию всегда на виду.

  • Предоставляет различные функциональные инструменты для контроля времени, которое вы тратите на потребление информации, например, установка ежедневного целевого времени, которое алгоритм будет использовать, чтобы напомнить вам, чтобы вы оторвались от компьютера и вернулись к реальной жизни.

Расширьте возможности искусственного интеллекта, сохраняя при этом контроль

Вместо того, чтобы манипулировать им для получения прибыли или политической выгоды, мы должны создать ИИ, который действительно сможет служить человечеству. Это понятно,Алгоритмы новостных лент не должны быть такими «плохими», как оператор казино или публицист, вместо этого они должны быть больше похожи на наставника или хорошего библиотекаря, основываясь на том, что они знают о людях и миллионах других, таких как вы.Психология понимает, что нужно рекомендовать книги. для вас, резонируют с вами и помогают вам расти. Это должен быть направляющий инструмент, который соответствует вашей жизни — установив лучший путь для знакомства с пространством, вы прибудете к месту назначения с помощью искусственного интеллекта.В этом случае вы сможете обследовать себя в одной группе, учиться с системой с богатым опытом и проводить академические исследования с таким «помощником», который обладает всеми текущими знаниями о людях.

В реальном продукте пользователи должны иметь полный контроль над ИИ, с которым они взаимодействуют. Таким позитивным образом вы сможете более эффективно достигать поставленных целей.

Создание анти-Facebook-модели

В общем, искусственный интеллект станет интерфейсом между нами и цифровым миром в будущем. Это даст отдельным лицам более гибкий контроль и даже приведет к постепенному упадку организаций. К сожалению, в настоящее время социальные сети определенно идут неверным путем. К счастью, у нас еще есть время переломить эту неблагоприятную ситуацию.

Как участникам индустрии ИИ, нам необходимо разрабатывать продукты и рынки, которые связывают пользователей с алгоритмами, влияющими на них с помощью различных стимулов, а не используют ИИ для манипулирования суждениями пользователей в целях получения прибыли или политической выгоды. В частности, нам нужно создавать модели, направленные против Facebook.

В будущем эти продукты могут появиться в виде ИИ-помощников. С современной точки зрения поисковую систему можно рассматривать как ранний информационный интерфейс, управляемый ИИ. Он служит пользователю, не пытаясь контролировать его психологические наклонности. Поиск — это инструмент, используемый для достижения определенной цели, он показывает пользователям только то, что мы на самом деле хотим видеть. Таким эффективным способом поисковые системы минимизируют время перехода от вопроса к ответу и от вопроса к решению.

Некоторые друзья могут задаться вопросом, поскольку поисковая система принадлежит к уровню искусственного интеллекта между нами и информацией, которую мы сообщаем, будет ли она корректировать результаты для достижения цели манипулирования нами? Да, каждый алгоритм управления информацией несет в себе этот риск. Но в отличие от социальных сетей, направленность рыночных стимулов в данном случае фактически согласуется с потребностями пользователей, что также побуждает поисковые системы быть максимально релевантными и объективными. Если это не сработает наверняка, пользователи вскоре обратятся к другим продуктам с более честной конкуренцией. Более того, у поисковых систем гораздо меньше возможностей для психологического воздействия, чем у новостных лент социальных сетей. Различные угрозы искусственного интеллекта, которые мы упоминали в этой статье, часто должны соответствовать следующим условиям, чтобы их можно было отразить в продукте:

  • Восприятие и действие: Продукт может не только контролировать информацию, отображаемую для пользователей (новости и социальные обновления), но и «воспринимать» текущее психологическое состояние пользователя через «лайки», сообщения в чате и статус. Без этих двух когнитивных способностей он не может построить цикл обучения с подкреплением.

  • Быть центром нашей жизни: продукт должен быть основным источником информации, по крайней мере, для некоторых пользователей, и обычный пользователь должен проводить часы в день, используя продукт. Напротив, вспомогательные, специальные механизмы продвижения, такие как рекомендации продуктов Amazon, не представляют серьезной угрозы.

  • Становление социальным компонентом обеспечивает более широкий и эффективный ментальный контроль (особенно социальное подкрепление). Это означает, что неперсонализированные новостные ленты — это лишь малая часть информации, которую мы получаем.

  • Бизнес-стимулы предназначены для манипулирования пользователями и побуждают их проводить больше времени с продуктом.

Большинство продуктов для управления информацией на основе ИИ не соответствуют этим требованиям. Социальные сети, с другой стороны, представляют собой ужасающую коллекцию факторов риска. Как технологи, мы должны отдавать предпочтение продуктам, не имеющим вышеуказанных характеристик, и противодействовать тем, которые подвержены риску такого злоупотребления. Поэтому мы должны создавать поисковые системы и цифровых помощников, а не социальные новости. Создавайте механизмы рекомендаций прозрачным образом, чтобы убедиться, что они настраиваемые и конструктивные. Кроме того, создайте отличный пользовательский интерфейс, пользовательский опыт и знания в области искусственного интеллекта, а также создайте отличную панель конфигурации для алгоритма, чтобы пользователи могли использовать продукт по своему усмотрению.

Важно, чтобы мы сообщали эти концепции нашим пользователям, чтобы помочь им отказаться от манипулятивных продуктов. Возникающее в результате давление рынка будет продвигать технологическую отрасль в действительно здоровом направлении.

Краткое содержание: Мы находимся на развилке пути в будущее.
  • Социальные сети не только создают мощные ментальные модели для отдельных лиц и групп, они также все больше контролируют то, как мы потребляем информацию, и манипулируют нашими убеждениями, чувствами и поведением с помощью ряда плодотворных психологических эффектов.

  • Достаточно продвинутый алгоритм ИИ может непрерывно анализировать наши психические состояния и поведение, отражающее эти состояния, чтобы эффективно манипулировать нашими убеждениями и поведением.

  • Использование искусственного интеллекта в качестве нашего информационного интерфейса само по себе не является проблемой.При правильном проектировании эти интерфейсы искусственного интеллекта могут принести больше пользы и прав людям. Дело в том, что пользователи должны иметь возможность полностью контролировать алгоритмические цели и использовать их в качестве инструментов для достижения своих целей (как в случае с поисковой системой).

  • Как технологи, мы обязаны отвергать продукты, которые находятся вне нашего контроля, и работать над созданием информационных интерфейсов, подотчетных пользователям.Думайте об ИИ не как об инструменте для манипулирования пользователями, а как о мощном оружии, которым пользователи действительно могут овладеть.

Перед нами два пути: один ведет в леденящее кровь будущее, а другой — в более личное завтра. К счастью, у нас еще есть время подумать и не спеша выбирать. Но важно подчеркнуть, что независимо от того, волнует вас это или нет, как участника цифрового мира, ваш выбор имеет последствия для всего человечества. Так что обязательно подойдите к этому вопросу ответственно.

Прочтите исходную ссылку: https://medium.com/@francois.chollet/what-worries-me-about-ai-ed9df072b704

Для получения дополнительных галантерейных товаров, пожалуйста, обратите внимание на публичный аккаунт WeChat «AI Frontline» (ID: ai-front)