Социальная этика и дилеммы ИИ

UCIL20122 | Администратор Robot Overlords
I. Обзор споров о распознавании лиц

Споры относительно использования ИИ и программного обеспечения для распознавания лиц не ограничиваются недавним общественным возмущением по поводу его использования правоохранительными органами. В то время как опасения по поводу прав человека, этики государственного надзора и возможности злоупотребления властью стоят в авангарде дебатов об ИИ, на практике возникают серьезные проблемы со многими алгоритмами ИИ, неспособными распознавать небелые лица, ИИ распознавания лиц. неспособность различать людей в Китае и ИИ в фотоприложениях, идентифицирующий афроамериканских пользователей как горилл. Amazon, в частности, подверглась резкой критике за дискриминационные ошибки и предпочтения в своих инструментах искусственного интеллекта: Rekognition, это теперь запрещенное программное обеспечение для распознавания лиц, которое не могло различать пол небелых пользователей и программное обеспечение для набора персонала с искусственным интеллектом, которое, похоже, приучило себя к предпочтению кандидатов-мужчин.

Эти инциденты не единичны. С тех пор компании разрабатывают инструменты для обнаружения предвзятости в алгоритмах ИИ (см. Ниже) в попытке решить проблему. Однако, во всяком случае, внедрение программного обеспечения для обнаружения предубеждений с тех пор доказало, что опасения по поводу обучения ИИ предубеждениям полностью оправданы.



Однако спрашивать «Является ли ИИ расистским?»или «Является ли ИИ сексистским» кажется неправильным подходом. Не ИИ несет ответственность за данные, которые он обрабатывает.

Очень (очень) простая схема обучения алгоритмов ИИ:

Алгоритмы ИИ разрабатываются на основе данных (входных данных), которые им подаются. Модели машинного обучения (модели ML или MLM) позволяют ИИ фактически обрабатывать, понимать и учиться наборы данных, которые сами по себе сложны, но все же в значительной степени зависят от исходных входных данных. Кроме того, наиболее подходящий MLM для ИИ определяется характером данных, которые ему предоставляются.

Видео ниже (также доступно здесь) дает гораздо лучшее и подробное объяснение ИИ и различных типов МЛМ:

В конечном счете, это демонстрирует, что ИИ нельзя рассматривать как разумную, злонамеренную сущность, которая несет ответственность за самообучение предвзятости: более уместным вопросом является почему ИИ проявляет предвзятость?' и ответ на реализацию дискриминационного и предубежденного поведения алгоритмов распознавания лиц и вербовки ИИ.

Необходимость диверсифицировать данные, поступающие в ИИ и MLM, неоднократно упоминается во всех источниках, на которые есть ссылки в этой статье, как до неприличия очевидное решение. За это отвечает не ИИ, а программисты, специалисты по вводу данных и компании, которым они принадлежат; они несут ответственность как за ИИ, MLM, так и за информацию, которую они предоставляют.

Это не означает, что инструменты предвзятости не нужны — технология искусственного интеллекта все еще находится на ранних стадиях развития, и обнаружение предвзятости в любой области имеет решающее значение для понимания цели или влияния источника (или набора данных). Это также не для того, чтобы выдвигать общие обвинения в том, что те, кто занимается разработкой и программированием технологий искусственного интеллекта, по своей сути являются дискриминационными; во всяком случае, эти события еще больше подчеркивают основные проблемы пола, расы, пола и этнической принадлежности в современном глобальном обществе. И технология искусственного интеллекта, и социально-освободительные движения сложны, и было бы черствым упрощением подходить к их сближению с абсолютистскими убеждениями.

Вопрос почему ИИ проявляет предвзятость, заставляет нас признать, что технология ИИ настолько разумна, насколько разум человека стоит за ней. Точно так же, как выходные данные отражают входные данные, предвзятость в технологии ИИ отражает этические и моральные ценности компаний, разрабатывающих программное обеспечение. Разработка эффективного программирования ИИ зависит от эффективных человеческих подходов, и это может потребовать решения наших собственных современных, человеческих социальных проблем разнообразия и инклюзивности в глобальном масштабе, прежде чем мы сможем создать беспристрастную, действительно полезную технологию ИИ.

II. Дебаты об ИИ: станет ли ИИ заменой или коллегой человека?

Научная фантастика убедительно изображает потенциальное будущее ИИ в реальном мире — хотя, возможно, и очень далекое. В 2023 году технология ИИ все еще находится в зачаточном состоянии; даже в этом случае это не предотвратило подкрадывающееся, неизбежное чувство страха, которое многие испытывают по поводу возможности разработки действительно разумной технологии искусственного интеллекта. Вредоносные, вымышленные существа с искусственным интеллектом, такие как HAL, Skynet и Агент Смит, дали множество причин опасаться разумных технологий искусственного интеллекта или, точнее, опасаться невозможности контролировать их. .

Люди упорно верят в собственную значимость как разумных, самосознательных и разумных форм жизни; хотя мы признаем себя частью животного царства, мы настаиваем на том, что мы существуем отдельно от природы и выше всех других нечеловеческих форм жизни. Исторически эволюция и экспансия человека зависели от нашей способности доминировать над миром природы или подчинять его себе, заставляя нашу среду приспосабливаться к нам в большей степени, чем мы выбираем приспосабливаться к ней.

По общему признанию, это немного грубое упрощение антропоцентрического подхода к человеческому превосходству над естественным, и существуют гораздо более всесторонние исследования, изучающие это¹. Однако цель этого короткого тангенса — продемонстрировать врожденную человеческую потребность в абсолютном контроле над естественным — и неестественным — миром. Мы опасаемся будущего, в котором технологии ИИ обретут разум и самосознание, а человеческие желания и потребности больше не будут ставиться выше окружающего мира. По иронии судьбы, мы боимся стать инструментами для использования, подобно многим нечеловеческим формам жизни и современным технологиям искусственного интеллекта.

Однако, возможно, гораздо более обоснованное и более ощутимое осознание этого страха можно найти в опасениях, что машины с искусственным интеллектом заменят людей в рабочей силе. Робототехника и машины с искусственным интеллектом уже используются в нескольких отраслях: от выполнения повторяющихся или потенциально опасных ручных задач на производственных линиях до исследования экстремальных условий, в которых люди не могут работать. По мере развития технологий угроза замены машинами становится все более реальной.

Это ни в коем случае не новая дискуссия, как и процесс замены человеческого труда машинами.

Предыдущие промышленные революции показывают нам, как рабочая сила перемещается и меняется, освобождая место для новых технологий и открывая новые роли для уволенных рабочих (но не без значительных затрат для уволенных рабочих). Страх быть замененным небезоснователен: большинство из нас в своей жизни работают на низкоуровневых, не управленческих должностях и осознают, что мы расходный материал и его легко заменить. Это может показаться чересчур мрачным, пессимистичным отношением, но для многих людей безработица является ужасающе реальной перспективой.

Тем не менее, идея о том, что ИИ в конечном итоге полностью заменит человеческую рабочую силу, кажется маловероятной.

Перечисленные ниже статьи охватывают ряд различных проблем, проблем и ограничений, связанных с распространением систем ИИ на рабочем месте. Вместо того, чтобы заменить людей, системы ИИ, скорее всего, станут инструментами для совместной работы или коллегами; идея о том, что технология искусственного интеллекта будет развиваться в качестве коллеги, чтобы дополнять и улучшать человеческий интеллект и способности в повседневной жизни, является гораздо более обнадеживающим и правдоподобным будущим.

(Цитаты, приведенные выше в следующих статьях, подчеркивают ключевые пояснения, подтверждающие аргумент о том, что технология ИИ не является заменой)

Человеческие способности, однако, более обширны. В отличие от способностей ИИ, которые реагируют только на доступные данные, люди способны представлять, предвидеть, чувствовать и оценивать меняющиеся ситуации, что позволяет им переключаться с краткосрочных проблем на долгосрочные. Эти способности уникальны для людей и не требуют постоянного потока внешних данных для работы, как в случае с искусственным интеллектом.
ИИ должен дополнять человеческий интеллект, а не заменять его



ИИ отличается от прежних технологий автоматизации одним фундаментальным моментом: это не система, основанная на правилах или статичном опыте; это основано на данных. Его алгоритмы начинают с текущих данных, но меняют эти правила по мере поступления новых данных; его сила заключается в его способности динамически изменять свои результаты по мере поступления новой информации. И в этом кроется загадка: доверяем ли мы ИИ самостоятельно изменять правила?
Почему ИИ не заменит человеческую рабочую силу



Нам нужно начать смотреть на то, как мы можем улучшить навыки, связанные с технологиями, в то же время продвигая характерные человеческие навыки. Креативность, интуиция, инициатива и критическое мышление — это человеческие качества, которые вряд ли перенесут на роботов — по крайней мере, не скоро. Мы уже должны думать о том, как мы, как работодатели и сотрудники, можем использовать роботов для улучшения работы, которую мы выполняем.
Возникновение искусственного интеллекта



Бринйолфссон и его коллеги говорят, что у нас неправильные дебаты, когда речь заходит об ИИ: вместо того, чтобы размышлять о том, как будут уничтожены рабочие места, людям нужно сосредоточиться на «перестройке рабочих мест и реинжиниринге бизнес-процессов. br /> ИИ заменит задачи, а не рабочие места



Сноски:

¹ Ссылка на исследование, на которое ссылается эта статья:
Fudge, Erica (2004) Animal, Reaktion Books Ltd.

Дальнейшие исследования:

* Аргумент китайской комнаты — это критический мысленный эксперимент, утверждающий, что программирование цифровых систем создает видимость понимания [данных], но на самом деле система не дает никакого реального понимания. Первоначальный эксперимент был сосредоточен на языке как на данных.

В приведенной ниже статье представлен подробный отчет об мысленном эксперименте. Применительно к дебатам об ИИ эксперимент предполагает, что воспринимаемой чувствительности или интеллекта ИИ и МЛМ не существует; это только иллюзия.



Эта статья была вычитана, однако, если я упустил какие-либо ошибки, я был бы признателен, если бы вы сообщили мне об этом!