Ciencia y Tecnología

Mitos y verdades de la inteligencia artificial

¿Qué pasa con mi algoritmo?

¿Qué es la inteligencia artificial? ¿Cómo la usamos en nuestro día a día? ¿Qué es lo que hacemos al utilizarla? ¿Cuáles son sus peligros y beneficios? ¿Vienen estas herramientas a sacarnos el trabajo? ¿Quién las crea y qué obtiene a cambio? Este y otros temas te invitamos a explorar en la primera entrega de ¿Qué pasa con mi algoritmo?, una cartografía de los actores y sectores que trabajan en la IA.

La primera de las preguntas que nos planteamos para esta edición fue muchas veces respondida, pero creemos que no está de más volver a repasar: ¿Qué es la IA? Que no es lo mismo que decir de qué hablamos cuando la mencionamos.

Partimos desde la aclaración de que no existe una definición única y simple, pero el concepto se refiere a los sistemas informáticos que pueden hacer tareas complejas que normalmente realizan los humanos. Su finalidad es la de llevar a cabo procesos de razonamiento, resolución de problemas, representación del conocimiento, aprendizaje, comprensión del lenguaje humano, percepción, interpretación de normas sociales y abordaje de cuestiones inherentes a la inteligencia (Diccionario de informática en la nube de Microsoft Azure, 2023).

Cuando hablamos de inteligencia artificial, generalmente pensamos en modelos como ChatGPT o Gemini, pero a menudo pasamos por alto que su presencia en nuestra vida es mucho más cotidiana y antigua de lo que creemos.

Si vamos a lo esencial, uno de los conceptos más importantes es el de aprendizaje automático (en inglés, machine learning), una IA que se adapta automáticamente con mínima intervención humana, una serie de algoritmos entrenados con datos para realizar tareas. Algunas de las plataformas en donde se ve su uso son YouTube, Netflix y Spotify. Explicadas de manera sencilla, estas tecnologías almacenan información sobre todo lo que hemos visto o escuchado y, a partir de eso, nos recomiendan nuevo contenido. Este tipo de sistemas no siempre requiere cantidades masivas de datos, pero sí necesita intervención para el entrenamiento de sus modelos, y establecen principalmente correlaciones lineales simples.

Un algoritmo no es neutral. Aprende de los datos con los que se alimenta…

Por otro lado, también está el aprendizaje profundo (deep learning), un subconjunto de formación automática que utiliza redes neuronales artificiales (RNA) para imitar el proceso del cerebro humano. Para esto se utilizan grandes cantidades de datos, aprenden de por sí, del entorno y de los errores pasados y buscan establecer correlaciones complejas y no lineales.

Uno de los campos donde el deep learning ha causado una revolución más visible es en el procesamiento del lenguaje natural (PLN), la tecnología que permite a las máquinas entender y generar comunicación humana. Es la base de asistentes virtuales como Siri y Alexa, y de modelos de lenguaje como el GPT que impulsa a ChatGPT. Según un informe de MarketsandMarkets, se espera que este mercado alcance a nivel global los USD 43,43 mil millones para 2028 y ya llegó a los USD 19,2 mil millones el año pasado.

Pero, ¿cómo es posible que una máquina “entienda” lo que le decimos o escriba un texto coherente? La clave, como vimos, está en que sus redes neuronales se entrenan con inmensos volúmenes de texto extraídos de internet. Y en este punto es donde hallamos la raíz de uno de los desafíos más críticos de la IA hoy en día: los sesgos.

Un algoritmo no es neutral. Aprende de los datos con los que se alimenta, y si esos datos —los artículos, libros, foros y redes sociales que componen la red— contienen los prejuicios, estereotipos y desigualdades de nuestra sociedad, la IA los absorberá y reproducirá. El sistema no distingue entre una verdad objetiva y un discurso de odio; solo identifica patrones estadísticos.

El autor Bjørn Hofmann en su texto Biases in AI: Acknowledging and Addressing the Inevitable Ethical Issues (Sesgos en la IA: Reconocer y abordar los inevitables problemas éticos) reconoce tres categorías principales: input bias (sesgos de entrada), debido a su incompletitud, errores y falta de representación; system bias (sesgos de sistema), es decir, en el desarrollo del diseño de algoritmos, generalmente originados en la selección y la muestra de datos; y application bias (sesgos de aplicación), que tienen que ver con la posible exposición a un amplio rango de tendencias o inclinaciones humanas. Cada uno de ellos presenta un dilema ético que requiere de un estudio detallado y, además, de responsabilidad en el uso de estas herramientas.

Por ello, en nuestra próxima entrega de ¿Qué pasa con mi algoritmo?, nos sumergiremos en la cuestión y exploraremos cómo los sesgos humanos se codifican en la tecnología, junto con análisis de casos concretos donde la IA ha fallado de manera discriminatoria, y comenzaremos a trazar el mapa de cómo podemos construir sistemas más justos y responsables.

Este material es la entrega introductoria de una investigación que fue realizada en el marco del Programa por la Integridad de la Información-PIIN 2025 El futuro de la información en la era de la IA, del medio de comunicación La Precisa. En los siguientes números, seguiremos explorando este y otros temas relacionados con las nuevas tecnologías y su impacto en nuestras vidas

Recomendados

Sin Comentarios

    Dejar un comentario