Contraloría sugiere a diputados emular reglas de Unión Europea sobre inteligencia artificial

Al analizar proyecto sobre IA en Costa Rica, el órgano contralor recomendó revisar las normas del bloque europeo que prohíben usos calificados como amenazas para la sociedad

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

La Contraloría General de la República (CGR) recomendó a los diputados alinear un proyecto de ley para regular la inteligencia artificial (IA) en Costa Rica con la legislación elaborada por el Parlamento de la Unión Europea, la cual establece prohibiciones para usos calificados como amenazas para la sociedad.

La ley del Parlamento Europeo sobre la IA fue propuesta en el 2021, se votó en primer debate en diciembre del 2023 y será sometida a votación final en este mes de marzo, por lo que pronto se aplicará en todos los Estados miembros de la Unión.

La Contraloría sugirió revisar la normativa europea al emitir su criterio sobre el proyecto de ley 23.919, presentado por el diputado Óscar Izquierdo, de Liberación Nacional (PLN). Según señaló, una alineación de conceptos facilitaría la cooperación con otros países y organismos internacionales que desarrollen legislaciones similares.

La propuesta de la Unión Europea establecerá requisitos y obligaciones para el uso de la Inteligencia Artificial, con el objetivo de garantizar la seguridad y los derechos fundamentales de las personas. Este es el primer marco jurídico amplio sobre la IA en todo el mundo.

La norma europea clasifica las aplicaciones o usos de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo.

El riesgo inaceptable

Quedarán prohibidos los sistemas de riesgo inaceptable, por considerarlos una clara amenaza para la seguridad, los medios de vida y los derechos de las personas.

Entre esas prohibiciones estará la identificación biométrica remota en espacios de acceso público. Esta tecnología solo podrá utilizarse en casos excepcionales donde sea necesario, por ejemplo, buscar un niño desaparecido, prevenir una amenaza terrorista específica, o bien, localizar a un sospechoso de un delito grave.

Estos usos quedarán sujetos a la autorización de un organismo judicial y solo podrán identificar a la persona requerida.

Riesgo alto

Por su parte, los sistemas de alto riesgo deberán cumplir obligaciones estrictas antes de ser comercializados, así como garantizar medidas adecuadas de supervisión humana para minimizar los riesgos.

En esta categoría, están las aplicaciones relacionadas con el manejo del transporte,debido a que pueden poner en riesgo la vida de las personas.

En este grupo, también se encuentran la tecnología utilizada en formación educativa, cirugías asistidas por robots, programas de clasificación de hojas de vida para procedimientos de contratación, calificación crediticia y gestión de casos migratorios y de asilo.

La aplicación de la IA en procedimientos judiciales, como la evaluación de la fiabilidad de las pruebas o resoluciones judiciales, forma parte del grupo de desarrollos de alto riesgo, pues podría interferir con los derechos fundamentales de las personas.

Para regular a los proveedores de los sistemas de alto riesgo, la UE contará con autoridades encargadas de la vigilancia previa y posterior a la comercialización de las plataformas. Para ello, se efectuará supervisión humana. Los desarrolladores estarán obligados a reportar incidentes graves y fallas.

Riesgo limitado

En la categoría de riesgo limitado, la UE agrupa todas las aplicaciones que puedan hacer creer a los usuarios que interactúan con otra persona, por ejemplo, cuando se utilizan sistemas de IA como chatbots.

Al respecto, el plan establece obligaciones específicas de transparencia para garantizar que los seres humanos estén informados de que interactúan con una máquina, a fin de que puedan tomar una decisión informada.

Los proveedores de tecnologías de riesgo limitado deberán proporcionar herramientas que permitan a los usuarios saber que el contenido que consumen es generado por IA. De esta forma, los textos sobre asuntos de interés público deben etiquetarse como generados artificialmente. Esto también se aplica al contenido de audio y vídeo.

El bajo riesgo

La ley europea sobre IA habilita el uso libre de inteligencia artificial de bajo riesgo, como videojuegos o filtros.

La legislación europea también busca garantizar que sus leyes no caduquen ante las actualizaciones continuas de la IA, por lo que obligará a los proveedores a remitir los cambios en camino desde meses antes de las actualizaciones.

Este mes de febrero, la UE también creó la Oficina Europea de IA, encargada de supervisar la aplicación de la ley en sus Estados miembros. Su objetivo es que las tecnologías respeten la dignidad, los derechos y la confianza humana. Este órgano busca el diálogo y la cooperación internacional, así como una alineación mundial en la gobernanza de estas nuevas tecnologías.

Necesidad de integrar esfuerzos

La Contraloría General también enfatizó a los diputados la importancia de integrar, preferiblemente en un solo texto, las iniciativas de ley similares que se encuentran en la corriente legislativa, así como otras estrategias y planes nacionales relacionados con el tema de transformación digital o Inteligencia Artificial.

Entre las iniciativas que buscan regular este tema un convenio de Costa Rica con la Unesco, para elaborar y desarrollar una política nacional y una estrategia de IA.

También, existe la Estrategia de Transformación Digital 2023-2027, la cual fomenta el uso, fortalecimiento e implementación de soluciones tecnológicas a partir de la aplicación de la IA en el sector público.

Según enfatizó la Contraloría, es necesario cohesionar esfuerzos y evitar la aprobación de reformas legales contradictorias.

El proyecto de Óscar Izquierdo contempla la creación de una Comisión Interinstitucional para el Desarrollo de la Inteligencia Artificial, con el fin de promover y facilitar el desarrollo de procesos de inteligencia artificial en el país.

Asimismo, el plan propone la formación de un comité de asesoría. Sobre esto, la Contraloría señaló que el crecimiento desordenado del aparato público, sin una visión estratégica clara, dificultaría la optimización de recursos, la coordinación y la ejecución de políticas estatales.