https://noticiaslatam.lat/20231213/veto-al-reconocimiento-facial-la-ue-acuerda-una-ley-para-regular-la-inteligencia-artificial-1146500888.html
¿Veto al reconocimiento facial? La UE acuerda una ley para regular la inteligencia artificial
¿Veto al reconocimiento facial? La UE acuerda una ley para regular la inteligencia artificial
Sputnik Mundo
La norma será pionera y establecerá el primer marco jurídico integral para la IA, con un planteamiento basado en sus riesgos. Se creará una Oficina Europea de... 13.12.2023, Sputnik Mundo
2023-12-13T11:22+0000
2023-12-13T11:22+0000
2023-12-13T11:22+0000
internacional
🌍 europa
seguridad
consejo de europa
comisión europea
cctv
inteligencia artificial
chatbot
chatgpt
https://cdn.img.noticiaslatam.lat/img/07e7/02/16/1136099201_0:259:2000:1384_1920x0_80_0_0_87b7dbfa4a63a4596c7644ea19e6665c.jpg.webp
La futura ley convertirá a la UE en la primera región del mundo donde los usos de la inteligencia artificial (IA) quedarán regulados. El acuerdo entre el Europarlamento y el Consejo de Europa es todavía provisional y tendrá que ser ratificado, pero se estima que el texto final entre en vigor a finales de 2026, si bien algunos puntos podrán hacerlo antes.La Comisión Europea y el Parlamento Europeo anunciaron el compromiso legal, del que el equipo de la Presidencia española del Consejo de Europa afirmó que podrá "garantizar que los sistemas de IA comercializados y usados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE".España, a través de su Ministerio de Transformación Digital, se había fijado como objetivo prioritario cerrar tal acuerdo durante su semestre en la presidencia rotatoria europea. De tal forma, el pacto del 8 de diciembre, que llevaba discutiéndose a propuesta de la Comisión Europea desde abril de 2021, queda suscrito antes de la celebración de las elecciones al Parlamento Europeo de junio de 2024.Riesgos detectadosLa futura ley definirá las normas de una tecnología que está irrumpiendo en la vida diaria de las personas y que entraña a la par ventajas y riesgos. Y es en función de los riesgos que la Comisión clasifica a la IA en cuatro niveles:Aplicaciones prohibidas y multasDebido a la "amenaza potencial" que pueden suponer determinadas aplicaciones de la IA para los derechos de las personas y "la democracia", se acuerda prohibir los sistemas de categorización biométrica que se apoyan en "características sensibles" (raza, orientación sexual, creencias políticas o credo). La "extracción no selectiva" de rostros a través de Internet o cámaras de vigilancia (CCTV) para crear bases de datos de reconocimiento facial quedará igualmente prohibida, así como los sistemas de puntuación social, los que manipulen el comportamiento humano y los que exploten vulnerabilidades (edad, minusvalías, posición socioeconómica).La infracción de las normas sobre aplicaciones de IA prohibidas implicará multas que oscilarán entre 35 millones de euros o el 7% del volumen de negocios anual mundial (si esta cifra es superior). El incumplimiento de "otras obligaciones" y la "presentación de información incorrecta" se penarán con 15 millones de euros o el 3 % y 7,5 millones de euros o el 1,5 %, respectivamente. Es decir, el tamaño de la empresa es una variable a la hora de establecer un monto proporcionado, especialmente en el caso de empresas pequeñas o emergentes.El tema más difícil, sobre el que giró la negociación más ardua, es el del reconocimiento facial. Es una tecnología que suscita grandes recelos debido a la posibilidad que brinda a los Gobiernos para incrementar el control sobre la ciudadanía. El consenso se alcanzó gracias a la inclusión de limitaciones y salvaguardias. Los negociadores acordaron una serie de salvaguardias y excepciones restringidas para el uso de sistemas de identificación biométrica (RBI, por sus siglas en inglés) en espacios de acceso público con fines policiales, previa autorización judicial y listas de delitos estrictamente definidas. Los RBI "a distancia" se utilizarían exclusivamente para la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave.Se busca que el uso en tiempo real de este tipo sistemas esté sujeto a "condiciones estrictas". Su utilización deberá atender a un objetivo bien definido, y en un tiempo y espacio limitados, como puedan ser casos de terrorismo, trata, homicidios, secuestro, etc. Derechos de autor y riesgo de plagioLa Comisión Europea destacó que la futura normativa sobre modelos de IA de propósito general (GPAI) "garantizará la transparencia en toda la cadena de valor". Es el caso de aplicaciones populares, como ChatGPT, que tendrán que cumplir los "requisitos de transparencia", entre los que figuran "la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre los contenidos utilizados para la formación", se afirma en el balance del Parlamento Europeo.Es decir, con tales criterios se determinará, por ejemplo, si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial. Se busca que los datos empleados para entrenar a los sistemas respeten los derechos de autor, cuya conjugación con la IA encarna una cuestión muy delicada. Herramientas como MusicLM pueden crear composiciones musicales; ChatGPT es capaz de redactar trabajos y traducir textos, entablar una conversación, componer poesía e incluso crear códigos de programación informática; y Dall-e crea imágenes.Pero si el usuario se atribuye la autoría de tales creaciones, se incurre en un plagio no a otra persona, sino a una máquina. El caso de Dall-e es singular. Crea imágenes a partir de un original, cuyo autor no es retribuido. Por tal motivo, bancos de imágenes como Shutterstock o Getty Images rehúsan alojar tales creaciones en sus portales. Puede darse el problema ético de artistas que en su portafolio incluyan creaciones que son obra de la IA.También se da la inclusión no autorizada de imágenes en las bases de datos de herramientas de IA, para su entrenamiento. Es el caso del fotógrafo español y doble premio Pulitzer Emilio Morenatti, varias de cuyas fotografías han sido utilizadas sin su permiso para entrenar a Stable Diffusion y Midjourney. Y es recurrente el uso de algoritmos de IA para buscar creaciones susceptibles de plagio. Tal es el caso de los diseños de moda, donde Shein, el gigante chino de fast fashion, ha sido acusado de copiar creaciones de diseñadores independientes e incluso de otras compañías, como la sueca H&M.La sutileza de la IA generativa es tal, que no levanta sospechas. Así sucedió en marzo, cuando un artículo científico generado por ChatGPT logró publicarse en la revista educativa Innovations in Education and Teaching International. La profesora Debby Cotton, de la universidad Marjon de Plymouth, en el Reino Unido, prestó su nombre para hacerse pasar por la autora y alertar así irónicamente de los riesgos.Oficina europea y plazosLas nuevas obligaciones entrarán en vigor mediante códigos de prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas, junto con la Comisión Europea. Bajo la égida de esta última se creará una Oficina Europea de Inteligencia Artificial, que "supervisará la aplicación y el cumplimiento de las nuevas normas sobre modelos de inteligencia artificial de uso general".Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de Inteligencia Artificial será el primer organismo mundial que aplique normas vinculantes en la materia y, por lo tanto, se prevé que se convierta en una referencia internacional. La oficina entrará en funcionamiento en cuanto se ratifique el reglamento acordado; es decir, en el corto plazo. La prohibición efectiva de los sistemas vetados de IA tardará seis meses. Y justo al año, llegará el establecimiento de los requisitos para los sistemas y modelos de IA generativa.
https://noticiaslatam.lat/20230908/en-rusia-crean-un-agronomo-virtual-para-las-granjas-inteligentes-urbanas-1143486358.html
https://noticiaslatam.lat/20230812/inteligencia-artificial-en-america-latina-chile-lidera-pero-mexico-y-brasil-concentran-las-patentes-1142529856.html
https://noticiaslatam.lat/20230920/trading-automatizado-un-sector-donde-la-inteligencia-artificial-empieza-a-dominar-el-juego-1143922578.html
https://noticiaslatam.lat/20230330/carta-para-pausar-la-inteligencia-artificial-panico-tecnologico-o-alarma-justificada-1137499753.html
https://noticiaslatam.lat/20231014/ia-crea-un-robot-con-capacidad-de-movimiento-que-no-se-parece-a-ningun-objeto-real--video-1144747929.html
Sputnik Mundo
contacto@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Noticias
es_ES
Sputnik Mundo
contacto@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.noticiaslatam.lat/img/07e7/02/16/1136099201_0:72:2000:1572_1920x0_80_0_0_c7447d94c9b01f8a999c9fb5fc3f4dab.jpg.webpSputnik Mundo
contacto@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
🌍 europa, seguridad, consejo de europa, comisión europea, cctv, inteligencia artificial, chatbot, chatgpt
🌍 europa, seguridad, consejo de europa, comisión europea, cctv, inteligencia artificial, chatbot, chatgpt
¿Veto al reconocimiento facial? La UE acuerda una ley para regular la inteligencia artificial
Yarisley Urrutia
Corresponsal
La norma será pionera y establecerá el primer marco jurídico integral para la IA, con un planteamiento basado en sus riesgos. Se creará una Oficina Europea de Inteligencia Artificial y la infracción de las normas se penalizará con multas millonarias. Se podrá prohibir el uso de sistemas de categorización biométrica.
La futura ley convertirá a la UE en la primera región del mundo donde los usos de la inteligencia artificial (IA) quedarán regulados. El acuerdo entre el Europarlamento y el Consejo de Europa es todavía provisional y tendrá que ser ratificado, pero se estima que el texto final entre en vigor a finales de 2026, si bien algunos puntos podrán hacerlo antes.
La Comisión Europea y el Parlamento Europeo anunciaron el compromiso legal, del que el equipo de la Presidencia española del Consejo de Europa afirmó que podrá "garantizar que los sistemas de IA comercializados y usados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE".
España, a través de su Ministerio de Transformación Digital, se había fijado como objetivo prioritario cerrar tal acuerdo durante su semestre en la presidencia rotatoria europea. De tal forma, el pacto del 8 de diciembre, que llevaba discutiéndose a propuesta de la Comisión Europea
desde abril de 2021, queda suscrito antes de la celebración de
las elecciones al Parlamento Europeo de junio de 2024.
8 de septiembre 2023, 18:02 GMT
La futura ley definirá las normas de una tecnología que está irrumpiendo en
la vida diaria de las personas y que entraña a la par ventajas y riesgos. Y es en función de los riesgos que la Comisión clasifica a la IA en
cuatro niveles:
Riesgo mínimo: son la gran mayoría, desde los sistemas de recomendación hasta los filtros de correo no deseado, y no atentan contra los derechos o la seguridad de los ciudadanos. "Disfrutarán de libertad y ninguna obligación".
Alto riesgo: es la IA asociada a las infraestructuras críticas, como los ámbitos del agua, gas, electricidad, productos sanitarios, policía, administración de justicia e incluso de calidad democrática. "Deberán cumplir requisitos estrictos" e incluir sistemas de mitigación de riesgos, un registro de actividad, supervisión y un alto grado de ciberseguridad.
Riesgo inadmisible: se prohibirán los sistemas de IA que se consideren "una clara amenaza para los derechos fundamentales de las personas". Aquí se incluyen las aplicaciones que "manipulen el comportamiento humano para eludir la voluntad de los usuarios" y sistemas que en manos de Gobiernos y empresas permitan la "puntuación social". También se prohibirán algunos usos de
los sistemas biométricos, como el reconocimiento de emociones en el lugar de trabajo, y casi toda la identificación remota en tiempo real en lugares públicos con fines policiales.
Riesgo específico de transparencia: para el caso de
los robots conversacionales (chatbots), "los usuarios deben ser conscientes de que están interactuando con una máquina". Asimismo, las ultrafalsificaciones y otros contenidos generados por la inteligencia artificial "deberán etiquetarse como tales".

12 de agosto 2023, 22:45 GMT
Aplicaciones prohibidas y multas
Debido a la "amenaza potencial" que pueden suponer determinadas aplicaciones de la IA para los derechos de las personas y "la democracia", se acuerda prohibir los sistemas de
categorización biométrica que se apoyan en "características sensibles" (raza,
orientación sexual, creencias políticas o credo).
La "extracción no selectiva" de rostros a través de Internet o
cámaras de vigilancia (CCTV) para crear bases de datos de reconocimiento facial
quedará igualmente prohibida, así como los sistemas de puntuación social, los que manipulen el comportamiento humano y los que exploten vulnerabilidades (edad, minusvalías, posición socioeconómica).
La infracción de las normas sobre aplicaciones de IA prohibidas implicará multas que oscilarán entre
35 millones de euros o
el 7% del volumen de negocios anual mundial (si esta cifra es superior). El incumplimiento de "otras obligaciones" y la "presentación de información incorrecta" se penarán con 15 millones de euros o el 3 % y 7,5 millones de euros o el 1,5 %, respectivamente. Es decir, el tamaño de la empresa
es una variable a la hora de establecer un monto proporcionado, especialmente en el caso de empresas pequeñas o emergentes.

20 de septiembre 2023, 16:14 GMT
El tema más difícil, sobre el que giró la negociación más ardua, es el del
reconocimiento facial. Es una tecnología que suscita grandes recelos debido a la posibilidad que brinda a los Gobiernos para incrementar
el control sobre la ciudadanía. El consenso se alcanzó gracias a la inclusión de limitaciones y salvaguardias.
Los negociadores acordaron una serie de salvaguardias y excepciones restringidas para el uso de sistemas de identificación biométrica (RBI, por sus siglas en inglés) en espacios de acceso público con fines policiales, previa autorización judicial y listas de delitos estrictamente definidas. Los RBI "a distancia" se utilizarían exclusivamente para la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave.
Se busca que el uso en tiempo real de este tipo sistemas esté sujeto a "condiciones estrictas". Su utilización deberá atender a un objetivo bien definido, y en un tiempo y espacio limitados, como puedan ser casos de terrorismo, trata, homicidios, secuestro, etc.
"Las búsquedas específicas de víctimas, prevención de una amenaza terrorista específica y actual, o la localización o identificación de un sospechoso de haber cometido uno de los delitos específicos mencionados en el Reglamento", cita el comunicado de prensa del Parlamento Europeo.
Derechos de autor y riesgo de plagio
La Comisión Europea destacó que la futura normativa sobre modelos de IA de propósito general (GPAI) "garantizará la transparencia en toda la cadena de valor".
Es el caso de aplicaciones populares, como ChatGPT, que tendrán que cumplir los "requisitos de transparencia", entre los que figuran "la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre los contenidos utilizados para la formación", se afirma en el balance del Parlamento Europeo.
Es decir, con tales criterios se determinará, por ejemplo, si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial. Se busca que los datos empleados para entrenar a los sistemas respeten los derechos de autor, cuya conjugación con la IA encarna una cuestión muy delicada.

30 de marzo 2023, 05:10 GMT
Herramientas como
MusicLM pueden crear composiciones musicales;
ChatGPT es capaz de redactar trabajos y traducir textos, entablar una conversación, componer poesía e incluso crear códigos de programación informática; y
Dall-e crea imágenes.
Pero si el usuario se atribuye la autoría de tales creaciones, se incurre en un plagio no a otra persona, sino a una máquina. El caso de Dall-e es singular. Crea imágenes a partir de un original, cuyo autor no es retribuido. Por tal motivo, bancos de imágenes como Shutterstock o Getty Images rehúsan alojar tales creaciones en sus portales. Puede darse el problema ético de artistas que en su portafolio incluyan creaciones que son obra de la IA.
También se da la inclusión no autorizada de imágenes en las bases de datos de herramientas de IA, para su entrenamiento. Es el caso del fotógrafo español y doble premio Pulitzer Emilio Morenatti, varias de cuyas fotografías han sido utilizadas sin su permiso para entrenar a Stable Diffusion y Midjourney.
Y es recurrente el uso de algoritmos de IA para buscar creaciones susceptibles de plagio. Tal es el caso de los diseños de moda, donde Shein, el gigante chino de fast fashion, ha sido acusado de copiar creaciones de diseñadores independientes e incluso de otras compañías, como la sueca H&M.
La sutileza de la IA generativa es tal, que no levanta sospechas. Así sucedió en marzo, cuando un
artículo científico generado por ChatGPT logró publicarse en la revista educativa
Innovations in Education and Teaching International. En una suerte de estratagema similar a la que utilizó en 1938 Orson Welles con su emisión radiofónica de La guerra de los mundos, cuando hizo creer a los oyentes que la ficción era la realidad, el artículo, que versaba sobre la integridad académica frente al plagio precisamente en el contexto de aplicaciones de IA generativa, fue revisado por los expertos, pasó todos los filtros y fue leído por miles de usuarios, que no repararon en que el contenido estaba plagiado de otros trabajos y reelaborado con Chat GPT.
La profesora Debby Cotton, de la universidad Marjon de Plymouth, en el Reino Unido, prestó su nombre para hacerse pasar por la autora y alertar así irónicamente de los riesgos.

14 de octubre 2023, 15:27 GMT
Las nuevas obligaciones entrarán en vigor mediante códigos de prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas, junto con la Comisión Europea. Bajo la égida de esta última se creará una Oficina Europea de Inteligencia Artificial, que "supervisará la aplicación y el cumplimiento de las nuevas normas sobre modelos de inteligencia artificial de uso general".
Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de Inteligencia Artificial será el primer organismo mundial que aplique normas vinculantes en la materia y, por lo tanto, se prevé que se convierta en una referencia internacional.
"Para los
modelos de finalidad general, un grupo científico de expertos independientes desempeñará un papel central al emitir alertas sobre los riesgos sistémicos y contribuir a la clasificación y el ensayo de los modelos",
concluye el comunicado de la Comisión.
La oficina entrará en funcionamiento en cuanto se ratifique el reglamento acordado; es decir, en el corto plazo. La prohibición efectiva de los sistemas vetados de IA tardará seis meses. Y justo al año, llegará el establecimiento de los requisitos para los sistemas y modelos de IA generativa.
No te pierdas las noticias más importantes
Suscríbete a nuestros canales de Telegram a través de estos enlaces.
Ya que la aplicación Sputnik está bloqueada en el extranjero, en este enlace puedes descargarla e instalarla en tu dispositivo móvil (¡solo para Android!).
También tenemos una cuenta en la red social rusa VK.