Brújula ética: encontrando el norte en el uso responsable de la IA

Janeth Rodríguez, VP Revenue Latam de Infobip

Por Janeth Rodríguez, VP Revenue Latam de Infobip

No perdamos el rumbo. Basta ya de cuestionarnos si la Inteligencia Artificial es “buena” o “mala”, “protagonista” o “antagonista”. Ni negro, ni blanco — como todo en esta vida, el panorama de la IA está teñido de grises y de matices. Es entonces justo allí, en medio de todas aquellas tonalidades, que sale a relucir el humanismo tecnológico, buscando adornar el paisaje con pinceladas de justicia y de moral. Después de todo, un gran poder siempre conlleva una gran responsabilidad.

No demos un salto al vacío

En ocasiones, como generación, nos resulta difícil dimensionar las proporciones de aquellos eventos históricos en los que estamos inmersos, aquellos de los cuales formamos parte. Pero lo cierto es que, ante el galopante avance de la IA, el mundo está por experimentar acelerados cambios a un ritmo vertiginoso que no se veía desde el despliegue de la imprenta, hace ya más de seis siglos. Ante el alboroto tecnológico, la UNESCO ha liderado valiosos esfuerzos a fin de garantizar que la ciencia y la tecnología se desarrollen dentro de un marco ético.

Entender y, más que nada, regular hasta dónde llega el límite de aquella delgada línea en la que como humanidad nos balanceamos entre lo correcto y lo incorrecto, es responsabilidad de todos. Particularmente, las grandes corporaciones tienen la obligación moral de calibrar su llamada brújula ética en función de adquirir mejores prácticas en el uso de las nuevas tecnologías, adhiriéndose a estrictas regulaciones en materia de protección de datos y del derecho a la privacidad.

Encontrar el norte en dirección a un mundo más inclusivo, sostenible y pacífico a partir del buen uso de la IA es una tarea loable, pero compleja (complejísima). Si me lo preguntan, aquella brújula debería siempre apuntar a un uso tecnológico que, en medio de su afán por afinar y automatizar procesos, no comprometa la privacidad, la reputación ni la dignidad de las personas.

Bien dijo Maite López Sánchez, profesora de la Universitat de Barcelona y coordinadora del máster interuniversitario de inteligencia artificial que “la transparencia y el respeto a la privacidad son cualidades que solemos exigir a las instituciones públicas, pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos”.

Si bien los avances en materia de IA han sabido acelerar y perfeccionar procesos y tareas diarias -desde facilitar diagnósticos médicos hasta posibilitar comunicaciones más personalizadas y eficaces entre las empresas y sus consumidores-, ya estamos lo suficientemente viejos como para saber que no todo lo que brilla es oro. No por nada, en los más recientes años, han salido a flote diversos y profundos dilemas éticos que nos han invitado a reflexionar antes de saltar al vacío.

Algoritmos que sesgan

Así es, la IA tiene el potencial de reproducir nocivos prejuicios y sesgos y de exacerbar desigualdades latentes. Basta con realizar una rápida búsqueda en Google para darse cuenta del poder que yace tras la automatización y el sesgo del conocimiento. Hagan el ejercicio. Escriban “cuáles son los mejores líderes mundiales” en su motor de búsqueda predilecto y verán cómo su pantalla se inunda de golpe de fotografías de hombres. Ahora escriban en su buscador “colegialas” y comparen los resultados versus el término “colegiales”; seguramente su primera búsqueda les arrojará imágenes sexualizadas de adolescentes con diminutas faldas, mientras que la segunda les mostrará estudiantes comunes y corrientes. Indudablemente, el uso de los algoritmos representa un riesgo real de reforzar estereotipos de género. Cabe resaltar que lo mismo aplica para sesgos étnicos, raciales y de todo tipo.

Para estas alturas, creer que la tecnología es imparcial resulta un tanto ingenuo. La realidad es que los motores de búsqueda procesan macrodatos priorizando aquellos resultados con una mayor cantidad de clics.

Ya habiendo dicho esto, visto desde un ángulo constructivo, si bien tanto las personas como la IA contribuyen a alimentar sesgos de diversa índole, la IA también tiene el potencial de corregir y de reversar encasillamientos mandados a recoger. Como siempre, la respuesta está en las manos de las personas que hacen uso de las tecnologías.

Educación desechable

Como madre, muchas veces me cuestiono acerca de las profundas implicaciones que tendrá todo este auge tecnológico en el futuro de los jóvenes en época de escolaridad. Y es que, lastimosamente, nos estamos enfrentando a una generación de estudiantes propulsados por un dañino plagio digital que, además de ser instantáneo, muchas veces resulta inexacto.

Tal es el caso de ChatGPT, una IA revolucionaria y prometedora que puede jugarnos a favor o en contra por extraer contenido de diversas fuentes, fidedignas y dudosas, para arrojar respuestas que en ocasiones no hacen otra cosa más que divulgar la desinformación. Pero, ojo, no me malinterpreten, soy fiel creyente de que aquellos profesionales que se resistan a montarse en la ola de estas nuevas tecnologías inevitablemente terminarán por naufragar. El arte está en saber navegar dicha ola, para hacerlo con gracia, estilo y -claro- ética.

Dignidades y credibilidades en jaque mate

Por supuesto que aquellos muy sonados deepfakes de índole pornográfica representan un atentado a la dignidad de las personas; sin embargo, existe un peligro mucho más amenazante: su uso para manipular discursos políticos expresados por líderes.

El resultado va más allá de las posibles malinterpretaciones de la información, pues adicionalmente nos conduce en dirección a sociedades con una profunda desconfianza hacia los medios de comunicación — esos mismos que son el puente entre las personas y sus gobiernos.

No todo es color de rosa, pero no todos son espinas

A la lista de desafíos éticos que he mencionado se le suman muchos otros, como lo son los dilemas en materia de propiedad intelectual y derechos de autor; impactos significativos en el territorio de las artes y la creatividad humana; prácticas invasivas de vigilancia (“Big Brother is watching you”), entre muchos otros. Pero, entonces, ¿Qué hacemos? Taparnos los ojos y echarnos a llorar no es una opción.

La óptica lo es todo. ¿Qué tal si, por ejemplo, en lugar de enfocar nuestra crítica hacia todos los trabajos que, potencialmente, podrían desaparecer y ser reemplazados por la IA, nos concentramos en explorar todos aquellos nuevos roles que podrían surgir a partir de ella? Y es que, si lo piensan, muchos de los cargos actuales (esos mismos de los que hacemos alarde en nuestros perfiles de LinkedIn) ni siquiera existían hace una o dos décadas. Sí, el cambio asusta, es normal, pero no por eso debemos paralizarnos.

Tech for Good, calibrando nuestra brújula

El concepto de Tech for good surge entonces como esa luz esperanzadora que, además de prometer eficiencia, reducción de costos y autonomía, pone sobre la mesa nuestra escala de valores y nuestra humanidad misma.

Desde mi rol como VP de Revenue para LATAM en Infobip, he podido ser testigo de primera mano de cómo la tecnología puede impactar positivamente en la vida de las personas, actuando como catalizadora en temas de inclusión y dignidad humana.

Muchas veces me he visto conmovida por casos de éxito que respaldan nuestras soluciones, pero también nuestra esencia. Tal fue el caso, por ejemplo, de Redes da Maré, la organización gubernamental brasilera que con la ayuda de Infobip pudo reforzar y automatizar un programa de protección alimentaria, distribuyendo canastas alimentarias a 40 mil familias en las favelas de Maré durante la pandemia. Y ni qué decir de Unicef, a quienes ayudamos a reducir el abandono de donantes en un 33% mediante un uso inteligente de nuestras tecnologías.

Haciendo de la IA una aliada, no una enemiga

Resistirnos al cambio únicamente nos hará nadar a contracorriente. No hay vuelta atrás. La IA ha llegado, ha tocado a nuestras puertas y se ha sentado a la mesa — en nuestras manos está darle una buena lección de modales.

Más columnas de OPINIÓN aquí.

Dejar comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Suscríbase a nuestro boletín para mantenerse informado.