Inteligencia artificial: cómo usarla bien antes de que nos use a nosotros
- Trini Ried
- 17 jul
- 3 Min. de lectura
La Inteligencia Artificial (IA) ya forma parte de nuestra vida cotidiana, transformando radicalmente cómo trabajamos, nos relacionamos y tomamos decisiones. En una era marcada por algoritmos, sesgos invisibles y decisiones automatizadas, la clave no está en temerle a la IA, sino en conocerla, regularla y educarnos para que potencie lo mejor de nuestra humanidad.
La IA consiste en que las máquinas realicen funciones cognitivas antes reservadas solo a los humanos, como interpretar datos, reconocer patrones o incluso tomar decisiones. Hay dos grandes áreas: una basada en el análisis de datos y otra que requiere comprensión contextual. Esto permite, por ejemplo, que un algoritmo prediga nuestras preferencias en redes sociales o que un sistema reconozca rostros humanos con precisión.
El gran giro es que las máquinas ya hacen cosas que antes considerábamos exclusivamente humanas
Esto obliga a repensar nuestra identidad, el trabajo, la salud, la educación y nuestras relaciones. No se trata solo de incorporar tecnología, sino de educarnos en su uso, sus límites y sus implicancias. En 2021, la Unesco propuso un marco normativo internacional para orientar el desarrollo ético de la IA. No se trata de dejar este debate a las empresas tecnológicas: todos somos responsables.

Algunos ejemplos concretos:
Vehículos autónomos: la IA permite que los autos se conduzcan solos. Pero, en situaciones críticas, ¿quién decide qué vida priorizar? ¿Un algoritmo? ¿Y quién asume la responsabilidad moral y legal?
Arte y cultura: la IA ya pinta como Van Gogh o compone como Schubert. Si bien esto es fascinante, también plantea preguntas sobre la autoría, el plagio, la propiedad intelectual y la originalidad. ¿Qué lugar queda para los artistas humanos?
Justicia y pruebas: con la IA se pueden fabricar videos, voces y fotos falsas. ¿Cómo garantizar la veracidad de las pruebas judiciales? ¿Cómo proteger nuestra identidad en una era de suplantaciones digitales?
Creación de contenido: herramientas como ChatGPT revolucionaron la redacción. Redactan textos en segundos, corrigen, infieren, argumentan. Esto transforma el sistema educativo, los empleos creativos y las relaciones laborales. Su mismo creador, Sam Altman, ha reconocido la necesidad urgente de regulación.
Más allá de estas aplicaciones evidentes, la Inteligencia Artificial tiene efectos más sutiles y peligrosos
Sesgos en los datos: la IA aprende de datos históricos que pueden estar cargados de prejuicios. Por ejemplo, al buscar “maestro” en Google, suelen aparecer imágenes de hombres blancos estadounidenses. Esto excluye identidades diversas y refuerza estereotipos.
Desigualdad de género: los desarrolladores de IA son en su mayoría hombres (solo un 22% son mujeres), lo cual influye en los sesgos de los sistemas. La IA replica los filtros del mundo que la creó.
Cámaras de eco: los algoritmos priorizan los contenidos más clicados o cercanos a nuestras preferencias, generando burbujas que refuerzan ideas propias sin exposición a miradas distintas. Esto afecta el pensamiento crítico y la democracia.
Frente a este panorama, no se trata de demonizar la IA. Ya convivimos con ella: nos orienta en los mapas, enciende luces por voz, detecta fallas mecánicas o mejora procesos industriales. Pero para aprovechar sus beneficios debemos participar de su diseño y regulación.
Algunas ideas para regularla éticamente:
Que los protocolos empresariales minimicen riesgos.
Que exista monitoreo y mecanismos de control.
Que se proteja la privacidad y la diversidad cultural.
Que la IA esté siempre al servicio del ser humano y no al revés.

Un gran desafío es que muchas personas aún ignoran el tema, viven enfocadas en lo urgente y desconocen el impacto de esta revolución. Por eso, quienes tenemos acceso a la información debemos participar activamente del debate ético.
Y también podemos actuar en lo cotidiano:
Discutir en familia y trabajo cómo usar las herramientas de IA.
No falsear la realidad: retocar fotos o crear versiones distorsionadas es un riesgo ético.
Cuestionar lo que vemos y recibimos, incluso si parece veraz.
Informarnos activamente: no esperar a que otro decida por nosotros.
La Inteligencia Artificial es parte de lo que somos hoy como sociedad
No hay que tenerle miedo, sino asumir nuestra responsabilidad. Si se usa con criterio, puede ser una aliada formidable. Pero si se deja sola, sin límites ni valores, puede volverse un arma peligrosa. La tecnología debe ser humana, no deshumanizante. Y eso depende de nosotros.
* Trini Ried Goycoolea. Periodista y escritora, especialista en vínculos.




Comentarios