Últimas Noticias:
La Inteligencia Artificial (IA) está transformando rápidamente el panorama social, económico y educativo a nivel mundial, y Costa Rica no es la excepción. Sin embargo, de acuerdo con especialistas, aún existen algunos retos en cuanto a su ciberseguridad.
En el caso de Costa Rica, durante el 2022 fue uno de los países más afectados de la región por ciberataques que interrumpieron numerosos servicios gubernamentales. Ello incluidas las plataformas de impuestos y aduanas del país.
“Sin embargo, si bien la IA presenta múltiples beneficios en términos de ciberseguridad también presenta desafíos significativos. La automatización que ofrece la IA facilita a los hackers el desarrollo de amenazas más sofisticadas. Por ejemplo, correos de phishing convincentes y malware de alta calidad, además de generar videos falsos conocidos como deepfake lo suficientemente convincentes para la sociedad. Asimismo, la posibilidad de sesgo en los datos utilizados para entrenar sistemas de IA es un riesgo latente junto con la posible toma de decisiones sin supervisión humana, donde la automatización podría llevar a consecuencias no deseadas en respuesta a amenazas percibidas”, señaló Ingrid Mora, gerente general para Noventiq Costa Rica.
Añadió que para asegurar un uso adecuado de la IA en ciberseguridad, empresas y entidades estatales desempeñan un papel crucial. En este sentido, la colaboración con profesionales de la ciberseguridad con experiencia en sistemas de IA se vuelve esencial. También establecer políticas sólidas para regular el uso de la IA, incluyendo directrices sobre la formación de sistemas impulsados por IA y la toma de decisiones, es una necesidad imperante. Mantenerse al tanto de los avances en IA y ciberseguridad es esencial para protegerse de amenazas en constante evolución, agregaron desde Noventiq.
Otro aspecto relevante para la IA es la creación de regulación. Por ejemplo, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) ha instado a los gobiernos a regular el uso de la IA generativa en la educación y la investigación. Ello incluyendo límites de edad para los usuarios.
Por ejemplo, la entidad ha emitido directrices que sugieren pasos inmediatos para garantizar una visión centrada en el ser humano para el uso de nuevas tecnologías. Esto incluye la protección de la privacidad de los datos y la consideración de un límite de edad de 13 años para su uso en el aula.
De acuerdo con Alejandro Herrera, abogado, profesor en la Universidad Cenfotec y especialista en Ciencia de Datos, en el caso de Europa, recientemente se aprobó el reglamento que regula el tema de IA con un enfoque que busca el equilibrio entre mantener la vía a la innovación. Este prohíbe ciertos usos de la tecnología (como el manipular conductas de población vulnerable). También se enfoca en la regulación de los sistemas de alto riesgo, que son aquellos que pueden tener una gran afectación en la seguridad y en la vida de las personas.
“Los países están generando estructuras para regular el desarrollo de la IA. Por ejemplo, España creó una agencia para regular esta tecnología. También, mediante medidas administrativas o judiciales, se está regulando e inclusive limitando el uso general de ciertos datos personales para entrenar modelos de IA. El reglamento de Europa, puede ser un modelo interesante de regulación moderada que puede servir para una industria incipiente como la que existe en Latinoamérica”, dijo Herrera.
Añadió que, en Costa Rica, los legisladores están impulsando una regulación motivada por el Acta de IA de la Unión Europea. Este acto incluye reglas que prohíben el uso de la tecnología en la vigilancia biométrica y exige que sea claro qué contenido es generado por IA.
Nuestras Redes Sociales: