Inteligencia Artificial Generativa: ¿avance o amenaza?

Conozca el potencial actual de estas herramientas, los riesgos del uso irresponsable de la IA y los dilemas éticos que rodean a una tecnología que ya no es del futuro, sino del presente.

Es difícil imaginar una actividad en la que estas herramientas no estén colaborando. Las inteligencias artificiales generativas — como ChatGPT, Gemini, DeepSeek y muchas otras — están cada vez más presentes en la vida diaria de estudiantes, profesionales e incluso familias. Según la investigación “Digital Consumer Insights 2024”, en América Latina, el 73% de los usuarios digitales ya han recurrido a alguna herramienta de este tipo, una cifra superior al promedio global, que es del 66%. Ya sea para responder una duda, perfeccionar un correo electrónico, pedir una receta o ilustrar un proyecto, estas herramientas aceleran procesos y están transformando la manera en que aprendemos, trabajamos y nos comunicamos. Pero, si por un lado facilitan la rutina, por otro han generado debates sobre cómo debería ser el uso ético y consciente de estas innovaciones.

Nuevos rumbos en el mercado laboral

El ingeniero civil Otávio Claro ya percibe claramente los beneficios de la IA en su trabajo. “La tecnología me ayuda a reducir errores, anticipar problemas e incluso proponer soluciones que optimizan tiempo y reducen costos. No es exagerado decir que la inteligencia artificial potencia mi trabajo como gestor de obras”, afirma. Cuenta que utiliza la IA para consultar normas regulatorias, levantar datos técnicos específicos — como factores de productividad, consumo estándar de materiales e índices de desempeño. “Esa información, que antes requería una buena investigación o dependía de la experiencia acumulada del equipo, ahora está a pocos clics de distancia”, destaca el ingeniero.

Este escenario se repite en el día a día de la reclutadora Yasmin Peris, quien utiliza una plataforma de inteligencia artificial para ayudar en la selección de currículos. Explica que el proceso comienza con el registro de la vacante, con todos los requisitos que el candidato debe cumplir, incluyendo palabras clave relacionadas con habilidades técnicas y comportamentales deseadas. “Luego, esta plataforma crea para mí un ranking, desde el primer hasta el último candidato, basándose en las palabras clave presentes en el currículo y en la compatibilidad con la vacante publicada. Esto facilita mucho el trabajo, porque ya sé que las primeras personas estarán más adecuadas para ese puesto.” Además, destaca que cuando la vacante se cubre, esta herramienta asegura el envío rápido de retroalimentación a los profesionales no seleccionados. “Si no tuviéramos acceso a esta plataforma, nuestro trabajo seguramente sería menos ágil y eficiente, considerando que recibimos cientos de currículos por cada vacante publicada”, resalta.

Lo que ambos profesionales comentan sobre el uso de la IA en sus rutinas ilustra bien el propósito para el que estas herramientas fueron desarrolladas. “La inteligencia artificial generativa es un modelo estadístico capaz de identificar patrones para generar nueva información”, explica el profesor Alan Leiser, investigador del tema y docente en los cursos de tecnología de la Facultad Adventista del Paraná (FAP). Él destaca que esta es la principal diferencia entre la IA generativa y otros tipos de inteligencia artificial. “A diferencia de las IAs predictivas, que intentan predecir el futuro basándose en datos del pasado, las generativas están orientadas a la creación de nuevos contenidos. Muchas, como ChatGPT, Gemini, DeepSeek y Copilot, funcionan en formato de pregunta y respuesta, pero hay muchísimas otras aplicaciones”, aclara.

Según explica Alan, las habilidades de las IAs generativas se perfeccionan gradualmente a lo largo del proceso de entrenamiento al que son sometidas. “Los desarrolladores alimentan estos sistemas con grandes volúmenes de datos y, basándose en esos patrones, la IA aprende y comienza a generar respuestas. Estas respuestas no son necesariamente correctas, pero son coherentes con lo que ha aprendido”, detalla. Conforme los datos generados por ella son validados o corregidos, la IA se desarrolla aún más. “Hoy en día, las IAs generativas son capaces de producir, resumir, traducir o corregir un texto, elaborar cronogramas, informes o planificaciones didácticas, corregir códigos de programación, sugerir ideas de contenido, generar imágenes y videos, entre muchas otras funcionalidades”, ejemplifica el profesor.

Un estudio publicado en 2024 por Google en colaboración con Ipsos mostró que, al igual que Yasmin y Otávio, el 68% de los brasileños ven con optimismo el uso de esta tecnología en el mercado laboral. Sin embargo, un 15% aún manifiesta temor de tener que buscar un nuevo empleo. El doctor en Ciencias Sociales Aplicadas y mentor de carreras Lincoln Augusto afirma que ese miedo es legítimo, dado los desarrollos que todavía están por venir en los próximos años. “Sin embargo, como alguien que trabaja y habla de carrera desde hace más de 15 años, puedo afirmar que ese miedo debe ser visto más como una invitación a la reinvención que necesariamente como una ‘sentencia’”, analiza.

El mentor explica que la IA tiende a automatizar tareas repetitivas, operativas y previsibles, pero difícilmente reemplazará competencias esencialmente humanas, como la empatía, la creatividad, el pensamiento crítico y la capacidad de juicio ético, aunque sea “entrenada” para ello. Por eso, sostiene que, para mantenerse relevante, el profesional deberá continuar invirtiendo en autoconocimiento, aprendizaje continuo y habilidades interpersonales. “Esto incluye aprender a dialogar con las máquinas — sí, entender lo básico de la tecnología —, pero sin perder de vista aquello que nos hace genuinamente humanos”, enfatiza.

La IA en el aula

Otro público que ha recurrido a las facilidades de la IA en su rutina son los estudiantes. Según la investigación “Inteligencia Artificial en la Educación Superior”, realizada por la Asociación Brasileña de Mantenedoras de la Educación Superior (Abmes) en 2024, entre los universitarios —o quienes tienen interés en cursar una universidad— el 70% afirma usar frecuentemente estas herramientas. Entre los beneficios, los estudiantes mencionan la posibilidad de aprender en cualquier momento y lugar (53%); el acceso a información y contenidos más actualizados y diversos (50%); y la mejora en la eficiencia y rapidez para resolver dudas y problemas (49%).

Pero no solo en el apoyo a los estudios la IA ha ganado espacio. También se ha utilizado en la producción de trabajos académicos, lo que ha provocado no solo nuevos debates sobre ética, plagio y originalidad, sino también una reestructuración en las formas de enseñar y aprender. “No se trata solo de identificar si un texto fue o no producido con ayuda de IA, sino principalmente de entender cómo los estudiantes están usando estas herramientas y cuál es su papel dentro del proceso de aprendizaje”, analiza Sâmella Lima, coordinadora de las carreras de Comunicación en el Centro Universitario Adventista de São Paulo en Engenheiro Coelho (Unasp-EC). Ella observa que, en muchos casos, los profesores ya pueden percibir ciertos indicios de textos generados por IA —como la falta de profundidad crítica, argumentos excesivamente genéricos o la ausencia de referencias específicas y contextualizadas. “Sin embargo, el foco no ha sido ‘cazar’ estos usos, sino promover una discusión más amplia sobre autoría, originalidad y ética en la producción académica”, puntualiza.

La neuropsicóloga y candidata a magíster en Neurociencia Rosângela Morais reconoce el lado positivo del uso de la IA en el proceso de aprendizaje. “Las tecnologías facilitadoras, incluida la inteligencia artificial, tienen un potencial significativo para transformar la educación, ofreciendo recursos personalizables, acceso a información vasta y oportunidades de aprendizaje adaptativo”, observa. Sin embargo, recomienda precaución, al percibir que, al igual que ocurre con otras herramientas, la IA también conlleva riesgos si se usa de manera incorrecta. “La adopción de estas tecnologías no debe hacerse de manera irrestricta o acrítica. La dependencia de sistemas automatizados, incluidos algoritmos de inteligencia artificial, puede, en efecto, llevar a decisiones discriminatorias, incorrectas y potencialmente perjudiciales”, detalla.

Desde el punto de vista legal, el abogado y doctor en Derecho Estevão Schultz aclara que, cuando una actividad evaluativa se desarrolla sin indicar el uso de la IA, esto puede configurar mala conducta. Explica que el plagio, como infracción ética y académica, suele ser regulado por las propias instituciones educativas. Sin embargo, destaca que el uso de la inteligencia artificial no tiene por qué violar necesariamente esas normas. “Hay maneras correctas de utilizar estas tecnologías, respetando las reglas institucionales y los derechos morales previstos en la legislación de autor”, afirma.

En ese sentido, la profesora Sâmella pondera que es necesario desarrollar prácticas pedagógicas que ayuden a los alumnos a usar estas herramientas con conciencia, responsabilidad e intencionalidad. “No estamos frente a una mera ‘moda tecnológica’, sino a una transformación estructural en la forma en que producimos, accedemos y organizamos el conocimiento. Ignorar esto sería no solo ingenuo, sino perjudicial para la formación crítica de nuestros estudiantes”, declara. Ella subraya que la IA no debe verse como un enemigo a combatir. “¡Muy por el contrario! Creo que la IA debe entenderse en su complejidad y, a partir de ahí, incorporarse de manera ética y productiva al proceso de enseñanza-aprendizaje”, argumenta.

¿Qué dice la ley?

Desde la perspectiva jurídica, el abogado destaca que el debate sobre el uso indebido de la inteligencia artificial es muy amplio. Por ejemplo, empezando por los dilemas que genera en relación con los derechos de autor. “La legislación brasileña está principalmente regida por la Ley 9.610/98, que es la Ley de Derechos de Autor. Fue creada desde otra perspectiva sociojurídica y enfrenta desafíos importantes con el avance de la inteligencia artificial generativa”, explica. Estevão menciona, por ejemplo, que la ley exige un componente humano para reconocer derechos de autor. “Por eso, las obras generadas por IA, sin intervención creativa directa de una persona, pueden no estar protegidas”, puntualiza.

Además, Estevão señala que el uso de obras protegidas para entrenar algoritmos puede implicar violación de derechos de autor, particularmente si no hay consentimiento. “Se discute si la reproducción de patrones por IA constituye una ‘copia no autorizada’”, enfatiza. El investigador y docente de tecnología Alan Leiser cita un ejemplo reciente de esta discusión. “Vimos la ‘fiebre’ de fotos generadas por IA que imitaban el estilo de un estudio de animación japonés. ¿Cómo conoce la IA ese estilo? Fue alimentada y entrenada con información y datos disponibles en internet, aprendió y se volvió capaz de replicar. Pero eso no significa que haya habido autorización para que eso se haga”, aclara.

En cuanto a daños, perjuicios o infracciones cometidas por la inteligencia artificial, el abogado advierte que, desde el punto de vista legal, la responsabilidad civil por la criatura (robot, inteligencia artificial o cualquier otro dispositivo) recae en su creador. “Él es responsable de que la IA mantenga un cierto nivel de eficacia, transparencia y coherencia en sus acciones, para garantizar la seguridad jurídica de los ciudadanos, consumidores y empresas”, completa Estevão.

No obstante, señala que aún queda un largo camino por recorrer. “No existe en Brasil una norma específica que trate sobre responsabilidad o límites éticos respecto al uso de la IA”, observa. Por ahora, cada caso se evalúa basándose en la interpretación de cómo se han manejado casos similares anteriormente. “Hay propuestas como el Proyecto de Ley 21/20 (Marco Legal de la IA) que buscan definir directrices, pero el tema sigue en debate, requiriendo un equilibrio entre innovación y protección de derechos”, resalta.

Deepfake – el peligro de las imágenes falsas

Mientras la legislación intenta mantenerse al día con los avances y riesgos del uso de la IA, nuevas amenazas ya nos ponen en alerta. Una de las aplicaciones más preocupantes y potencialmente perjudiciales de esta tecnología es la creación de videos y audios casi imposibles de distinguir de los reales — los llamados deepfakes. El nombre proviene de “deep learning” (aprendizaje profundo de la IA) y “fake”, que significa falso. “Es como si la IA fuera un artista que ‘pinta’ a la persona en una situación inventada, haciendo o diciendo algo que nunca hizo en la realidad, pero de una manera que parece totalmente verdadera”, explica Fernando Jobs, comunicador y creador de contenido especialista en tecnología.

La manipulación de imágenes y sonido es tan realista que se vuelve casi indetectable. “La IA genera, desde cero, contenidos que imitan a la persona, aprendiendo sus rasgos y voz y replicando detalles sutiles, como expresiones, movimientos labiales y tono de voz, de forma muy convincente”, detalla el comunicador. Este tipo de producción puede desafiar la confianza en nuestros propios sentidos. “A diferencia de los montajes antiguos, que tenían fallas visibles, el deepfake puede ser muy difícil de identificar a simple vista”, señala. El profesor de tecnología Alan Leiser, que desarrolla investigaciones en el campo de la inteligencia artificial, refuerza esta cuestión. “La inteligencia artificial fue entrenada con datos humanos y puede replicar esos datos casi perfectamente. Si algo fue entrenado para parecer humano, realmente es difícil identificarlo de inmediato”, enfatiza.

El deepfake representa un peligro serio e inmediato, principalmente por su capacidad para engañar. Fernando explica que esta habilidad de la IA se convierte en un arma de desinformación en manos de personas malintencionadas. “Se pueden crear fake news (noticias falsas) con videos y audios de políticos o especialistas diciendo o haciendo cosas que no son verdad, manipulando la opinión pública”, ejemplifica. También menciona otras formas en que esta tecnología ha sido usada para perjudicar a personas. “Criminales pueden hacerse pasar por familiares o jefes usando voces e imágenes falsas para aplicar fraudes financieros. También pueden usar deepfakes para difamar o chantajear a alguien, poniendo a la persona en situaciones comprometedoras y amenazando su reputación”, alerta.

A pesar de la sofisticación de estas producciones, aún existen algunas señales que pueden ayudar a identificar si un video fue generado por IA. “Observa si la persona en el video actúa o habla de forma extraña, si el sonido no coincide con la boca, o si el escenario parece forzado”, orienta el comunicador. El profesor Alan Leiser agrega: “Observa la textura de la imagen. Generalmente, las creadas por IA son más lisas o con apariencia plástica. También mira las manos, orejas, pies… La IA todavía comete muchos errores en esos pequeños detalles”. Sin embargo, destaca que estas indicaciones, en muchos casos, ya no son suficientes. “Estamos llegando a un nivel de realismo en el que no podemos depender de las pistas visuales para saber si una imagen es fabricada o no”, advierte.

Ante esto, el comunicador Fernando Jobs subraya la importancia de adoptar una postura cautelosa y desconfiar de todo — ya sea un video, foto o audio — antes de compartirlo. “Desconfía de lo increíble. Si el contenido es tan chocante, tan increíble o tan revoltoso que parece mentira, probablemente lo sea. Noticias ‘exclusivas’ y bombásticas que solo tú y tu grupo reciben deben encender una alarma”, detalla. Sugiere una verificación sencilla: buscar en la web si el contenido aparece en otras fuentes confiables. “Si solo aparece en blogs o sitios extraños, ¡cuidado!”, alerta. Y propone un recurso curioso pero eficaz: “Usa el ‘Filtro de la Abuela’. Piensa: si tu abuela te contara eso, ¿le creerías sin verificar? Usa ese mismo sentido crítico que tienes en la vida real para lo que ves en internet”, aconseja.

Si se identifica un contenido falso, existen medidas prácticas para ayudar a detener su difusión. “Si ya lo compartiste, regresa y elimina el mensaje lo más rápido posible para interrumpir la cadena. Y no olvides avisar a quien te lo envió. Envía un mensaje amable informando que el contenido es falso, para que no lo reenvíe más”, orienta. También recomienda denunciar el contenido en redes sociales. “Así, las plataformas pueden investigar y eliminar el deepfake”, añade.

La IA no decide — nosotros decidimos

Es fundamental recordar que los riesgos asociados a la IA no son responsabilidad de la tecnología en sí. El profesor de tecnología Alan Leiser aclara que la IA no es “buena” ni “mala”, porque no es humana. “La IA no puede tener lo que tiene un ser humano — moral, ética, empatía… Puede aprender nuestro razonamiento, pero no puede reproducir nuestras emociones”, explica. Por eso enfatiza que nosotros, como humanos responsables del desarrollo y uso de la IA, no podemos evitar los cuestionamientos que solo nosotros podemos hacer. “El uso irrestricto de la IA debe discutirse. ¿Hasta dónde debemos limitar? ¿Hasta qué punto debemos permitir? ¿Lo que estamos haciendo puede causar daño? ¿Puede perjudicar a las personas?”, cuestiona.

El doctor en Ciencias Sociales Aplicadas Lincoln Augusto, quien también es psicoanalista y mentor de carreras, señala que el papel del individuo en este nuevo escenario es el de orientador del uso responsable de la tecnología. “La IA puede generar contenido, pero es un hecho que todavía depende de principios, intenciones y direcciones que le proporcionamos — el famoso prompt de comando”, observa. Frente al temor de ser reemplazados por máquinas, destaca aquello en lo que la IA jamás podrá ocupar nuestro lugar. “Lo que nos hace insustituibles es justamente la capacidad de sentir, discernir y dar sentido a las diversas y distintas experiencias que vivimos. Somos nosotros quienes damos dirección a la tecnología — o al menos deberíamos hacerlo”, puntualiza.

En este contexto, desarrollar un estado de conciencia crítico es esencial: cuestionar, verificar fuentes, reflexionar sobre los impactos sociales y culturales de estas herramientas. “La ética no puede ni debe ser tercerizada. El uso responsable de la IA pasa por saber qué queremos construir como sociedad y qué papel esperamos que la tecnología desempeñe en ello. Por eso, la pregunta clave no es solo qué puede hacer la IA, sino qué debe hacer — y esa respuesta solo puede venir de nosotros”, concluye.

Para quienes tengan curiosidad sobre qué piensa la propia inteligencia artificial al respecto, hicimos una pregunta a ChatGPT: “¿Cuál es la responsabilidad del ser humano en el uso de la IA?”
Y la respuesta fue: “Como IA, no tengo valores, conciencia ni intención — solo sigo comandos y patrones aprendidos a partir de datos. Esto significa que la responsabilidad ética, legal y social por lo que se haga con la tecnología es enteramente humana. Como inteligencia artificial, puedo ofrecer respuestas, generar contenidos y apoyar procesos de aprendizaje, pero corresponde a ti — humano — decidir qué hacer con esa información. La tecnología puede ser un puente, pero el discernimiento sigue siendo tuyo.”

Fuentes:

https://www.correiodopovo.com.br/jornal-com-tecnologia/jogos-on-line-chatgpt-e-5g-estudo-in%C3%A9dito-revela-consumo-digital-na-am%C3%A9rica-latina-em-2024-1.1541332?utm_source=chatgpt.com

https://www.estadao.com.br/economia/coluna-do-broad/america-latina-tem-maior-numero-de-usuarios-de-ia-generativa

https://forbes.com.br/carreira/2023/09/85-dos-brasileiros-quer-integrar-a-ia-ao-seu-trabalho-aponta-linkedin

https://forbes.com.br/forbes-tech/2025/01/54-dos-brasileiros-utilizaram-ferramentas-de-ia-em-2024

https://agenciabrasil.ebc.com.br/educacao/noticia/2024-08/sete-cada-dez-estudantes-usam-ia-na-rotina-de-estudo