Европарламент принял закон под названием AI Act, устанавливающий правила и требования для разработчиков моделей искусственного интеллекта. Документ призван обеспечить безопасность, прозрачность, экологичность и этичность использования ИИ в Европе. Об этом пишет noworries.

0

►Читайте страницу «Минфина» в фейсбуке: главные финансовые новости

Новые правила

Правила устанавливают риск-ориентированный подход к ИИ и формулируют обязательства для разработчиков и пользователей ИИ в зависимости от уровня риска, который он может создавать.

Системы ИИ с неприемлемым уровнем риска безопасности людей будут строго запрещены. В эту группу войдут, например, системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей или используемые для социальной оценки (классификация людей на основе их поведения, социально-экономического статуса, личных характеристик).

Парламент также уточнил список практик, запрещенных к искусственному интеллекту. В него вошли:

  • удаленная биометрическая идентификация, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения;
  • биометрическая категоризация с использованием чувствительных характеристик (например пол, раса, этническая принадлежность, гражданство, религия, политическая позиция);
  • прогностические полицейские системы (основаны на профилировании, местонахождении или прошлом уголовном поведении);
  • распознавание эмоций в правоохранительных органах, пограничных службах, на рабочих местах и в учебных заведениях;
  • неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей из камер видеонаблюдения для создания баз данных распознавания лиц (нарушение прав человека и права на неприкосновенность частной жизни).

Читайте: Как вложиться в искусственный интеллект: три стратегии инвестирования

Закон уточняет список АИ-систем «высокого риска». Согласно документу, это системы, которые могут потенциально нанести вред здоровью людей или окружающей среде. Сюда также входят системы искусственного интеллекта, которые используются для воздействия на избирателей в политических кампаниях и алгоритмов рекомендаций соцсетей.

Поставщики и разработчики «высокорискового» ИИ обязаны в соответствии с законом провести оценку риска и соответствия, зарегистрировать свои системы в европейской базе данных ИИ, обеспечить высокое качество данных, используемых для обучения ИИ, обеспечить прозрачность системы и информированность пользователей, а также обязательное наблюдение со стороны человека и возможность вмешательства в работу системы.

Читайте: Уоррен Баффет сравнил искусственный интеллект с атомной бомбой

Что касается «низкорискового» ИИ, такого как чат-боты, его поставщики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком. Для генеративных моделей добавляется еще одно требование — сообщать пользователям, что контент создан нейросетью.

Конференция «Invest Talk Summit» Узнайте, как заработать на инвестициях в 2023—2024 годах! Подробности на сайте.

Промокод на 10% скидку: minfin10.

🕵️ Мы создали небольшой опрос, чтобы узнать больше о наших читателях.

💛💙 Ваши ответы помогут нам стать лучшими, уделять больше внимания темам, которые вам интересны.

🤗 Будем благодарны, если вы найдете минутку, чтобы ответить на наши вопросы .

Источник: МинФин

Shares:
Добавить комментарий