Не уменьшайте возможности ИИ во имя прозрачности

машинное обучение искусственный интеллект Нейронные сети Автопилот
Не уменьшайте возможности ИИ во имя прозрачности
Эта статья была изначально создана "AI Frontline", оригинальная ссылка:Не уменьшайте возможности ИИ во имя прозрачности
Автор|Ма Чжуоци
Редактор | Эмили

Руководство по передовой ИИ:В будущем системы искусственного интеллекта будут разбивать наши машины и давать чернокожим американцам более длительные сроки тюремного заключения. Мы знаем, что это произойдет, потому что они ошиблись в этих областях. Хотя многие считают, что искусственный интеллект нуждается в объяснении, например, в Общем регламенте защиты данных, уже введенном Европейской комиссией. Но это не значит, что мы должны позволить ИИ объяснять, как он принимает решения в каждой важной ситуации.


Просьба об объяснимости звучит не так уж и много, но это может сделать ИИ менее умным. Учитывая, что перспективы искусственного интеллекта исходят от машинного обучения, подавление технологии означает неспособность диагностировать болезнь, игнорирование важных причин изменения климата или превращение нашей системы образования в слишком универсальную. Использование всей мощи машинного обучения, вероятно, будет означать, что мы полагаемся на результаты, которые невозможно объяснить людям.

Машинное обучение, особенно глубокое обучение, может анализировать данные, генерировать тысячи переменных, упорядочивать их в очень сложные, чувствительные матрицы взвешенных отношений и снова и снова запускать эти матрицы через компьютеризированную нейронную сеть. Чтобы понять результаты алгоритма, например, почему система считает, что у вас есть 73-процентный шанс заболеть диабетом или что ход имеет 84-процентный шанс на победу, вам может потребоваться понять взаимосвязь между вычисляемыми большими переменными. нейронной сетью много раз взаимодействуют, и наш мозг просто не может обработать столько информации.

В настоящее время ведется много увлекательной работы, направленной на то, чтобы сделать результаты машинного обучения понятными для людей. Например, иногда можно определить, какие переменные имеют наибольший вес, взглянув на них. Иногда визуализации операций могут показать, как система пришла к своим выводам. Но это не всегда так. Таким образом, мы можем перестать настаивать на интерпретируемости или убедить себя, что эти машины не всегда дают самые точные результаты. Точность может не иметь значения, если машинное обучение используется только для создания списков рекомендаций фильмов, но в медицинских проблемах и проблемах автономного вождения это вопрос жизни и смерти.

На самом деле интерпретируемость можно рассматривать как инструмент, который мы используем для достижения некоторых целей. Что касается машинного обучения, интерпретируемость может помочь разработчикам отлаживать системы, которые выходят из строя. Его также можно использовать для определения того, обусловлен ли результат факторами, которые не учитываются (пол, раса и т. д.), а затем для оценки его надежности. Однако у нас есть другие способы добиться желаемых результатов, не препятствуя способности системы машинного обучения помогать нам.

Оптимизация — перспективный и достаточно зрелый инструмент. Например, во время нефтяного кризиса 1970-х годов федеральное правительство решило оптимизировать автомагистрали для экономии топлива, снизив минимальную скорость на автомагистралях до 55. Точно так же правительство может определить направление оптимизации беспилотных автомобилей.

Предположим, правительственные чиновники решают, что системы беспилотных транспортных средств следует оптимизировать, чтобы уменьшить количество смертельных случаев в американских дорожно-транспортных происшествиях. В 2016 году их число составляло 37 000, и если число погибших резко сократится — McKinsey утверждает, что беспилотные автомобили могут снизить количество смертельных случаев на дорогах на 90 процентов, — и система достигнет цели оптимизации, народ будет ликовать, даже если никто можно понять почему.какое конкретное транспортное средство что "определяет". На самом деле, когда беспилотные автомобили образуют сеть и совместно определяют свое поведение, их поведение может стать необъяснимым.

Теперь определить оптимальное направление для автономного транспортного средства будет сложнее. Могут быть приоритеты: беспилотные автомобили могут быть оптимизированы сначала для снижения несчастных случаев, затем для снижения вреда, затем для уменьшения воздействия на окружающую среду, затем для сокращения времени вождения и так далее. Точный уровень приоритета — это то, что должны решить регулирующие органы.

Каким бы ни был результат, важно то, что существующие демократические процессы определяют направление оптимизации, а не коммерческие интересы. Позволение рынку решать также может привести к неоптимальным решениям, поскольку у автопроизводителей также есть сильный конструктивный стимул сделать свои автомобили первоклассными самоуправляемыми автомобилями. Трудно сказать, будет ли лучшим беспилотным автомобилем Bugatti Veyron в стиле Безумного Макса. Это вопросы, которые затрагивают общественные интересы и должны решаться в публичной сфере правительства.

Но недостаточно указать направления оптимизации и затем протестировать результаты. Предположим, что число погибших в результате дорожно-транспортных происшествий сократилось с 37 000 до 5 000, но цветные люди составляют больший процент жертв. Или предположим, что система искусственного интеллекта пытается отобрать кандидатов, с которыми стоит пройти собеседование, но лишь небольшой процент из них составляют женщины. Очевидно, что оптимизации недостаточно. Нам также необходимо ограничить эти системы, чтобы они поддерживали наши фундаментальные ценности.

Для этого системы ИИ должны быть прозрачными в отношении направлений и результатов оптимизации, особенно с учетом важных ценностей, которые мы хотим, чтобы они поддерживали. Но нам не нужно, чтобы их алгоритмы были прозрачными. Если система не может достичь поставленных целей, она может продолжать корректировку до тех пор, пока не достигнет цели. Но если он достигает своей цели, то объяснения не нужны.

Но как оптимизировать систему ИИ? Что сдерживать? На эти вопросы трудно ответить. Если компания из Кремниевой долины использует искусственный интеллект для отбора кандидатов на должности разработчиков, будем ли мы настаивать на том, чтобы женщины составляли 50%? Или это соотношение, по крайней мере, равно доле женщин среди выпускников компьютерных наук? Пойдем ли мы шаг за шагом к гендерному равенству? Хотим ли мы, чтобы 75% женщин в пуле рабочих мест компенсировали прошлую несправедливость? На эти вопросы трудно ответить, но демократия не должна оставлять получение ответов коммерческим организациям. Следует оставить общественное достояние для оптимизации и ограничений.

Для 5 000 человек, погибших в автокатастрофах, тот факт, что беспилотное вождение спасло 32 000 человек, также не является утешением. Учитывая сложность временной сети автономных транспортных средств, возможно, нет никакого способа объяснить, почему ваша тетя Ада погибла в серийной автокатастрофе. Но мы также не хотим жертвовать еще 1000 или 10 000 человек в год только для того, чтобы сделать транспортную систему понятной для людей. Таким образом, если интерпретируемость действительно влияет на эффективность системы в снижении смертности, следует регулярно использовать систему социального страхования без вины (финансируемое государством страхование без ответственности) для компенсации жертвам и их семьям. Ничто не спасет жизнь жертве, но, по крайней мере, смертей тети Иды в автокатастрофах станет меньше.

Есть причина перейти к этому подходу к управлению: он позволяет нам извлекать выгоду из передовых систем искусственного интеллекта, которые находятся за пределами человеческого понимания.

Его внимание сосредоточено на институциональном уровне, а не на обсуждении отдельных событий. Сравнивая ИИ с процессом, который он заменяет, мы, возможно, сможем немного изменить вызванную ИИ моральную панику вокруг нас.

Он рассматривает вопросы управления как социальные проблемы, которые необходимо решать с помощью существующих процессов для решения вопросов политики.

И помещает управление этими системами в человеческие, социальные рамки, подчиняя их человеческим потребностям, желаниям и правам.

Думая об управлении ИИ как о проблеме оптимизации, мы можем сосредоточиться в первую очередь на том, что действительно важно: чего мы хотим от системы и чем мы готовы пожертвовать, чтобы это получить?

Оригинальный комментарий:

medium.com/polka-full - читать...

Посмотреть исходный английский текст:

woohoo.wired.com/story/don't-…

Для большего содержания сухих товаров вы можете обратить внимание на AI Frontline, ID:ai-front, фоновый ответ "AI", "TF", "Большие данные«Вы можете получить серию мини-книг в формате PDF и карт навыков «AI Frontline».