Узнай, как новые законы Калифорнии об искусственном интеллекте уравновешивают инновации и подотчетность, охватывая вопросы конфиденциальности, глубоких подделок, здравоохранения, образования и безопасности.
От самоуправляемых автомобилей до здравоохранения, инновации в области искусственного интеллекта (ИИ) и технологические компании нового поколения начинают играть ключевую роль в изменении нашей повседневной жизни. Соответственно, объем мирового рынка ИИ составил 196,63 миллиарда долларов в 2023 году и, как ожидается, будет расти в среднем на 36% ежегодно с 2024 по 2030 год. Эти цифры показывают, насколько быстро развивается ИИ.
С одной стороны, стремительное развитие ИИ создает решения различных проблем в разных отраслях. С другой стороны, эта скорость высвечивает необходимость ответственного развития ИИ , чтобы убедиться, что усовершенствования этичны и полезны для общества.
Например, в 2016 году Microsoft запустил чат-бота Tay на сайте X (бывший Twitter). Он был создан для того, чтобы учиться на разговорах с пользователями. Однако вскоре после запуска Tay начал генерировать ответы с непрофессиональной лексикой, так как подхватил ряд взаимодействий. Хотя Microsoft быстро вывел бота в оффлайн, это хороший пример того, как важно обеспечить надежность данных, используемых для обучения ИИ, и информированность общественности о том, как компании используют такие данные для ИИ-продуктов.
В связи с этой проблемой губернатор Калифорнии Гэвин Ньюсом в сентябре этого года подписал более десятка законопроектов, связанных с ИИ. Эти законы касаются всего: от раскрытия подробностей о тренировочных данных до работы с глубокими подделками. В этой статье мы рассмотрим законы Калифорнии об искусственном интеллекте и то, что они за собой влекут. Давай начнем!
Были подписаны три важных законопроекта, призванных поддержать развитие ИИ, становящегося более безопасным и надежным. Законопроект Ассамблеи (AB) 2013 года, который вступит в силу в 2026 году, требует от поставщиков генеративного ИИ публиковать подробную информацию о своих обучающих наборах данных. К этим деталям относятся источники наборов данных, подробная информация о том, как используются данные, количество точек данных в наборе, включены ли данные, защищенные авторским правом или лицензией, в какой период времени собирались данные и так далее. Обмен этой информацией поможет ИИ-компаниям укрепить доверие общества.
Еще один важный законопроект, который был подписан, - AB 1008. Он распространяет существующие в Калифорнии законы о конфиденциальности на генеративные ИИ-решения. AB 1008 был внесен, чтобы устранить опасения и повысить доверие общества к тому, как системы ИИ обращаются с личной информацией. Опрос показал, что более 81 % потребителей обеспокоены тем, что ИИ-компании могут использовать их информацию так, как они не собирались. Устанавливая четкие ограничения на то, как компании могут использовать и извлекать прибыль из личной информации, такой как имена, адреса и биометрические данные, этот закон помогает ИИ-компаниям заверить пользователей в том, что их данные будут обработаны ответственно, даже если они будут раскрыты ИИ-системой.
Аналогично, сенатский законопроект (SB) 896, или Закон об ответственности генеративного ИИ, требует от Калифорнийского управления экстренных служб (CalOES) провести анализ рисков, связанных с потенциальными угрозами, исходящими от систем генеративного ИИ. CalOES будет сотрудничать с компаниями-первопроходцами в области ИИ, такими как OpenAI и Anthropic, чтобы обсудить и проанализировать потенциальные угрозы ИИ для критически важной инфраструктуры штата.
Ранее мы уже рассказывали о том, как ИИ в образовании может персонализировать учебный процесс, пересмотреть методы преподавания, предложить обратную связь в режиме реального времени и поддержать педагогов с помощью передовых инструментов и знаний. По сути, инновации ИИ могут создать более эффективную и увлекательную среду обучения для студентов. Педагоги и учителя по всему миру используют ИИ все более регулярно, реализуя успешные пилотные проекты и проводя более широкие внедрения. Исследования показывают, что более 50% учителей считают, что ИИ в классах положительно повлиял на процесс преподавания и обучения.
В Калифорнии приняты два закона, касающиеся использования ИИ в учебных заведениях. AB 2876 обязывает Совет по образованию штата Калифорния учитывать грамотность в области ИИ (после 1 января 2025 года) в рамках учебных программ и учебных материалов по математике, естественным наукам и истории. Цель этого закона - сделать так, чтобы в школах Калифорнии учеников обучали основам работы искусственного интеллекта, а также ограничениям, последствиям и этическим со ображениям использования этой технологии.
В дополнение к этому SB 1288 требует от суперинтендантов Калифорнии создать рабочие группы (не позднее 1 января 2026 года), чтобы изучить, как ИИ используется в государственных школах. Эти рабочие группы должны будут представить свои выводы и рекомендации соответствующим политическим и финансовым комитетам Законодательного собрания до 1 января 2027 года. После того как отчет будет представлен, рабочая группа будет распущена, а положения отменены 1 января 2031 года.
Генеративный ИИ улучшает индустрию здравоохранения, позволяя использовать инновации для открытия новых лекарств, диагностики заболеваний, планирования лечения и медицинских чат-ботов. Эти приложения могут обеспечить такие преимущества, как мониторинг, советы и поддержка в реальном времени, что улучшит результаты лечения пациентов. Другие технологии ИИ, например дополненная реальность (AR), также могут быть использованы для планирования и моделирования хирургических процедур.
Интеграция генеративного ИИ в здравоохранение сопряжена с определенными предостережениями, связанными с конфиденциальностью данных и нормативными актами. Приоритет отдается точности, надежности и справедливости результатов, полученных с помощью ИИ, и в то же время соблюдению конфиденциальности медицинской информации.
Чтобы решить эти проблемы, Калифорния приняла два закона об использовании генеративного ИИ в здравоохранении. AB 3030 требует от медицинских учреждений раскрывать информацию о том, когда они используют генеративный ИИ для общения с пациентом, особенно если эти сообщения содержат клиническую информацию о пациенте. SB 1120 накладывает ограничения на то, как поставщики медицинских услуг и медицинские страховщики могут автоматизировать свои сервисы. Эти новые законы также гарантируют, что лицензированные врачи контролируют использование инструментов ИИ в этих учреждениях.
В штате Калифорния также приняты законы, связанные с ограничением использования ИИ для распространения вводящей в заблуждение или неточной информации. SB 942 требует, чтобы популярные системы генеративного ИИ четко указывали в своих исходных данных, что контент был создан ИИ. Многие ИИ-компании уже делают это, а несколько бесплатных инструментов (ZeroGPT, Winston AI, GLTR и другие) могут помочь людям прочитать эти исходные данные и обнаружить сгенерированный ИИ контент.
В Калифорнии были приняты три новых закона(AB 1831, SB 926, SB 981), направленные на решение проблем, связанных с deepfakes. Эти законы расширяют существующие меры защиты, вводят уголовную ответственность за неправильное использование контента, сгенерированного искусственным интеллектом, и требуют от платформ социальных сетей создать каналы отчетности по контенту deepfake. Законы должны быть введены в действие к январю 2025 года.
Один из законопроектов, который был принят в качестве закона, был направлен на то, чтобы дать правильное определение ИИ. В AB 2885 говорится, что ИИ определяется как "инженерная или машинная система, которая варьируется по уровню автономности и которая может, преследуя явные или неявные цели, делать выводы из получаемых ею входных данных о том, как генерировать выходные данные, способные влиять на физическую или виртуальную среду".
Также были приняты два интересных закона для индустрии развлечений. Крупнейший в Америке профсоюз актеров кино и телевещания (SAG-AFTRA) сыграл решающую роль в продвижении этих законов. AB 2602 требует, чтобы киностудии получали разрешение от актера, прежде чем использовать искусственный интеллект для создания копии его голоса и подобия. Тем временем AB 1836 запрещает студиям создавать цифровые реплики умерших исполнителей (как, например, персонаж Питера Кушинга в Star Wars: Rogue One) без согласия их наследников.
Познакомившись с каждым из этих законов, ты, возможно, задался вопросом, зачем они на самом деле нужны. Регулирование ИИ уже некоторое время является популярной темой для обсуждения, но оно получило значительный импульс с ростом количества глубоко фейкового контента, который затронул различные сферы, включая СМИ и политику. Использование генерируемого ИИ контента в сети вызвало опасения по поводу дезинформации и ее потенциального влияния на результаты выборов, например. Также растут опасения по поводу неприкосновенности частной жизни и неправомерного использования личных данных инновациями ИИ. Эти вопросы стали одним из факторов, по которым сейчас принимается несколько новых законов, направленных на решение этих проблем.
Например, AB 2905 обязывает робозвонки сообщать, являются ли они голосами, сгенерированными искусственным интеллектом. Кроме того, AB 2655 призывает крупные онлайн-платформы, такие как Facebook и X, удалять или маркировать глубокие подделки, связанные с выборами, и создавать каналы отчетности по такому контенту. Кандидаты и выборные должностные лица также могут добиваться судебного запрета, если платформы не выполнят требования.
Другой закон, AB 2839, направлен против пользователей социальных сетей, которые публикуют или репостят глубокие подделки, способные ввести избирателей в заблуждение. Аналогично, AB 2355 предусматривает четкое раскрытие информации о политической рекламе, сделанной с помощью инструментов искусственного интеллекта.
Новые законы Калифорнии об искусственном интеллекте отражают растущее стремление к балансу между инновациями и ответственностью. Решая ключевые проблемы в таких областях, как прозрачность данных, конфиденциальность, глубокие подделки, использование ИИ в здравоохранении и образовании, эти законы направлены на защиту личности и общества, способствуя ответственному развитию ИИ. Поскольку ИИ продолжает развиваться, эти правила помогут обеспечить, чтобы его рост сопровождался этичными практиками и доверием общества. Кроме того, эти законы могут побудить другие регионы мира последовать их примеру.
Чтобы узнать больше, посети наш репозиторий на GitHub и присоединяйся к нашему сообществу. Изучи применение ИИ в производстве и сельском хозяйстве на страницах наших решений. 🚀
Начни свое путешествие с будущим машинного обучения