Descubre cómo las nuevas leyes sobre IA de California equilibran la innovación con la responsabilidad, cubriendo la privacidad, las falsificaciones profundas, la asistencia sanitaria, la educación y la seguridad.
Desde los coches autoconducidos hasta la asistencia sanitaria, las innovaciones de la inteligencia artificial (IA) y las empresas tecnológicas de nueva generación están empezando a desempeñar un papel clave en la remodelación de nuestra vida cotidiana. En consecuencia, el tamaño del mercado mundial de la IA fue de 196.630 millones de dólares en 2023 y se espera que crezca una media del 36% anual de 2024 a 2030. Estas cifras demuestran lo rápido que está creciendo la IA.
Por un lado, el rápido desarrollo de la IA está creando soluciones a diversos problemas en distintos sectores. Por otro lado, esta velocidad saca a la luz la necesidad de un desarrollo responsable de la IA para garantizar que las mejoras sean éticas y beneficiosas para la sociedad.
Por ejemplo, en 2016, Microsoft lanzó un chatbot, Tay, en X (antes Twitter). Estaba diseñado para aprender de las conversaciones con los usuarios. Sin embargo, poco después de su lanzamiento, Tay empezó a generar respuestas con lenguaje poco profesional al captar una serie de interacciones. Aunque Microsoft retiró rápidamente el bot de la red, es un buen ejemplo de la importancia de garantizar que los datos utilizados para el entrenamiento de la IA sean fiables y que el público sea consciente de cómo utilizan las empresas esos datos para los productos de IA.
En respuesta a esta preocupación, el gobernador de California , Gavin Newsom, firmó en septiembre más de una docena de proyectos de ley relacionados con la IA. Estas leyes abordan desde la divulgación de detalles sobre los datos de entrenamiento hasta el tratamiento de las falsificaciones profundas. En este artículo, exploraremos las leyes sobre IA de California y lo que implican. Empecemos.
Se firmaron tres importantes proyectos de ley para apoyar que el desarrollo de la IA sea más seguro y fiable. La Ley de la Asamblea (AB) 2013, que entrará en vigor en 2026, exige a los proveedores de IA generativa que publiquen detalles sobre sus conjuntos de datos de entrenamiento. Estos detalles incluyen las fuentes de los conjuntos de datos, detalles sobre cómo se utilizan los datos, el número de puntos de datos en el conjunto, si se incluyen datos protegidos por derechos de autor o con licencia, el periodo de tiempo en que se recopilaron los datos, etc. Compartir esta información ayudará a las empresas de IA a generar confianza pública.
Otro proyecto de ley importante que se firmó fue el AB 1008. Amplía las leyes de privacidad existentes en California a las soluciones de IA generativa. La AB 1008 se introdujo para abordar las preocupaciones y mejorar la confianza pública en la forma en que los sistemas de IA manejan la información personal. Una encuesta reveló que a más del 81% de los consumidores les preocupa que las empresas de IA puedan utilizar su información de forma no prevista. Al establecer límites claros sobre el modo en que las empresas pueden utilizar y beneficiarse de la información personal, como nombres, direcciones y datos biométricos, esta ley ayuda a las empresas de IA a tranquilizar a los usuarios en el sentido de que sus datos se tratarán de forma responsable, aunque queden expuestos por un sistema de IA.
Del mismo modo, el Proyecto de Ley del Senado (SB) 896, o Ley de Responsabilidad de la IA Generativa, exige a la Oficina de Servicios de Emergencia de California (CalOES ) que realice análisis de riesgos sobre las amenazas potenciales que plantean los sistemas de IA generativa. CalOES trabajará con empresas pioneras en IA, como OpenAI y Anthropicpara debatir y analizar las posibles amenazas de la IA a las infraestructuras estatales críticas.
Ya hemos explorado anteriormente cómo la IA en la educación puede personalizar las experiencias de aprendizaje, redefinir las prácticas docentes, ofrecer información en tiempo real y ayudar a los educadores con herramientas y conocimientos avanzados. De hecho, las innovaciones de la IA pueden crear un entorno de estudio más eficaz y atractivo para los alumnos. Educadores y profesores de todo el mundo están utilizando la IA con mayor regularidad, con proyectos piloto de éxito e implementaciones más amplias en marcha. Los estudios muestran que más del 50% de los profesores consideran que la IA en las aulas ha tenido un impacto positivo en el proceso de enseñanza y aprendizaje.
California ha introducido dos leyes relativas al uso de la IA en las instituciones educativas. La AB 2876 obliga al Consejo de Educación del Estado de California a considerar la alfabetización en IA (después del 1 de enero de 2025) en sus marcos curriculares y materiales didácticos de matemáticas, ciencias e historia. El objetivo de esta ley es asegurarse de que las escuelas de California eduquen a los alumnos sobre los aspectos básicos del funcionamiento de la inteligencia artificial, así como sobre las limitaciones, repercusiones y consideraciones éticas del uso de esta tecnología.
Además de esto, el SB 1288 exige a los superintendentes de California que creen grupos de trabajo (el 1 de enero de 2026 o antes) para estudiar cómo se utiliza la IA en las escuelas públicas. Estos grupos de trabajo tendrán que presentar sus conclusiones y recomendaciones a los comités políticos y fiscales pertinentes de la Legislatura antes del 1 de enero de 2027. Una vez presentado el informe, el grupo de trabajo se disolverá, y las disposiciones quedarán derogadas el 1 de enero de 2031.
La IA Generativa está mejorando la industria sanitaria al permitir innovaciones para descubrir nuevos fármacos, diagnosticar enfermedades, planificar tratamientos y chatbots médicos. Estas aplicaciones pueden proporcionar beneficios como la monitorización, el asesoramiento y el apoyo en tiempo real para mejorar los resultados de los pacientes. Otras tecnologías de IA, como la realidad aumentada (RA), también pueden utilizarse para planificar y simular intervenciones quirúrgicas.
La integración de la IA generativa en la asistencia sanitaria conlleva ciertas advertencias relacionadas con la privacidad de los datos y la normativa. Es crucial dar prioridad a la precisión, fiabilidad e imparcialidad de los resultados generados por la IA, salvaguardando al mismo tiempo la privacidad de la información sanitaria.
Para abordar estos retos, California ha aprobado dos leyes sobre el uso de la IA generativa en la asistencia sanitaria. La AB 3030 exige que los proveedores de servicios sanitarios revelen cuándo utilizan IA generativa para comunicarse con un paciente, concretamente cuando esos mensajes contienen información clínica del paciente. La SB 1120 pone limitaciones al modo en que los proveedores de servicios sanitarios y las aseguradoras médicas pueden automatizar sus servicios. Estas nuevas leyes también garantizan que los médicos colegiados supervisen el uso de herramientas de IA en estos entornos.
El estado de California también ha aprobado leyes relativas a frenar el uso de la IA para difundir información engañosa o inexacta. La ley SB 942 exige que los sistemas populares de IA generativa indiquen claramente en sus datos de origen que el contenido ha sido creado por IA. Muchas empresas de IA ya lo hacen, y existen varias herramientas gratuitas (ZeroGPT, Winston AI, GLTR, etc.) que pueden ayudar a la gente a leer estos datos de origen y detectar el contenido generado por IA.
En California se aprobaron tres nuevas leyes(AB 1831, SB 926, SB 981) para abordar cuestiones relacionadas con los deepfakes. Estas leyes amplían las protecciones existentes, tipifican como delito el uso indebido de contenidos generados por IA y exigen a las plataformas de redes sociales que creen canales de denuncia de contenidos deepfake. Está previsto que las leyes entren en vigor en enero de 2025.
Uno de los proyectos que se convirtieron en ley se centraba en dar una definición adecuada a la IA. La AB 2885 establece que la IA se define como "un sistema de ingeniería o basado en máquinas que varía en su nivel de autonomía y que puede, por objetivos explícitos o implícitos, inferir de la entrada que recibe cómo generar salidas que puedan influir en entornos físicos o virtuales".
También se promulgaron dos leyes interesantes para la industria del entretenimiento. El mayor sindicato de actores de cine y televisión de Estados Unidos (SAG-AFTRA) desempeñó un papel crucial en la aprobación de estas leyes. La AB 2602 exige a los estudios cinematográficos que obtengan el permiso de un actor antes de utilizar IA para crear una réplica de su voz y semejanza. Por su parte, la AB 1836 prohíbe a los estudios crear réplicas digitales de actores fallecidos (como el personaje de Peter Cushing en Star Wars: Rogue One) sin el consentimiento de sus herederos.
Al conocer cada una de estas leyes, puede que te hayas preguntado por qué son realmente necesarias. Las regulaciones de la IA han sido un tema popular de debate desde hace algún tiempo, pero han cobrado un impulso significativo con el auge del deepfake content, que ha afectado a diversas áreas, incluidos los medios de comunicación y la política. El uso de contenidos generados por IA en Internet ha suscitado preocupación por la desinformación y su posible impacto en los resultados electorales, por ejemplo. También aumentan los temores sobre la privacidad y el uso indebido de los datos personales por parte de las innovaciones de la IA. Estas cuestiones han sido uno de los factores por los que se han promulgado varias leyes nuevas para abordarlas.
Por ejemplo, la AB 2905, obliga a los robocalls a revelar si son voces generadas por IA. Además, el AB 2655 exige a las grandes plataformas online como Facebook y X que eliminen o etiqueten los deepfakes relacionados con las elecciones y que creen canales de denuncia para estos contenidos. Los candidatos y cargos electos también pueden solicitar medidas cautelares si las plataformas no cumplen.
Otra ley, la AB 2839, va dirigida a los usuarios de las redes sociales que publiquen o reenvíen deepfakes que puedan inducir a error a los votantes. Del mismo modo, la AB 2355 estipula la divulgación clara de los anuncios políticos realizados con herramientas de IA.
Las nuevas leyes sobre IA de California reflejan un compromiso creciente para equilibrar la innovación con la responsabilidad. Al abordar cuestiones clave como la transparencia de los datos, la privacidad, las falsificaciones profundas y el uso de la IA en la sanidad y la educación, estas leyes pretenden proteger a las personas y a la sociedad, al tiempo que promueven el desarrollo responsable de la IA. A medida que la IA siga evolucionando, estas normativas ayudarán a garantizar que su crecimiento vaya acompañado de prácticas éticas y de la confianza del público. Estas leyes también pueden animar a otras regiones del mundo a seguir su ejemplo.
Para saber más, visita nuestro repositorio de GitHub y participa en nuestra comunidad. Explora las aplicaciones de la IA en la fabricación y la agricultura en nuestras páginas de soluciones. 🚀
Comienza tu viaje con el futuro del aprendizaje automático