
Un reciente estudio realizado por Microsoft Research y la Universidad Carnegie Mellon ha revelado que el uso de herramientas de inteligencia artificial generativa (GenAI) en el entorno laboral podría tener un impacto negativo en la capacidad de pensamiento crítico de los profesionales. Si bien la IA se ha convertido en una aliada valiosa para optimizar el trabajo, la investigación sugiere que su uso frecuente puede generar una dependencia que afecta la capacidad de análisis y resolución de problemas de los empleados.
-Metodología del estudio
La investigación involucró a 319 profesionales y analizó 936 ejemplos reales de uso de herramientas como ChatGPT y Copilot en entornos laborales. Los participantes utilizaban estas herramientas al menos una vez por semana en su trabajo. Los investigadores observaron que la adopción de IA ha modificado la forma en que los trabajadores abordan sus tareas:
- Enfoque en la verificación: Se ha pasado de un enfoque en la búsqueda de información a un enfoque en la verificación de la información proporcionada por la IA.
- Integración de respuestas: La resolución de problemas ha sido reemplazada por la integración de respuestas generadas por la IA, sin un análisis crítico previo.
- Supervisión de la IA: La ejecución de tareas ha evolucionado hacia la supervisión de la IA en la generación de contenido, en lugar de la creación propia.
El estudio fue presentado en la CHI Conference on Human Factors in Computing Systems, lo que destaca la importancia de encontrar un equilibrio entre la automatización y el pensamiento crítico humano.
-El riesgo de la dependencia excesiva
Uno de los hallazgos clave del estudio es que los profesionales con mayor confianza en la IA tienden a pensar menos críticamente en sus tareas. Un participante mencionó: «Es una tarea sencilla y sabía que ChatGPT podía hacerla sin dificultad, así que nunca pensé en ello. No sentí que el pensamiento crítico fuera relevante».
Por otro lado, aquellos con mayor confianza en sus propias habilidades se mostraron más propensos a evaluar cuidadosamente las respuestas generadas por la IA, especialmente en la aplicación de información en contextos complejos.
El estudio también reveló que la IA tiende a generar información que coincide con los sesgos del usuario, lo que puede generar errores difíciles de detectar sin una revisión minuciosa. Algunos participantes señalaron que los resultados de la IA eran demasiado enfáticos y poco adecuados para el lenguaje académico, lo que los obligaba a modificar manualmente las respuestas.
-Optimizar el uso de la IA sin perder el pensamiento crítico
Para evitar una dependencia perjudicial de la IA, los investigadores recomiendan diseñar herramientas que fomenten la evaluación crítica en lugar de reemplazar el razonamiento humano. Algunas estrategias incluyen:
- Conciencia de las limitaciones: Fomentar la verificación de información y la detección de sesgos en los resultados de la IA.
- Motivación para la evaluación: Incluir pasos de validación antes de aceptar una respuesta generada por IA.
- Capacitación en pensamiento crítico: Ayudar a los trabajadores a desarrollar habilidades para evaluar con criterio los resultados de la IA.
El estudio de Microsoft plantea una reflexión importante sobre cómo las herramientas de IA están redefiniendo la forma en que trabajamos. Si bien la automatización puede mejorar la productividad, es crucial que los profesionales mantengan un papel activo en la evaluación de la información generada por IA. La clave está en encontrar un equilibrio entre la eficiencia y el pensamiento crítico para aprovechar al máximo los beneficios de la IA sin sacrificar nuestra capacidad de análisis y resolución de problemas.