Quizás no haya un signo más claro de la disonancia cognitiva de nuestra era que la forma en que tratamos a la inteligencia artificial. Al entrar en cualquier sala de juntas, sala de redacción, aula o seminario de capacitación, escucharás el mismo mensaje urgente: aprender IA o quedarse atrás. Industrias enteras están siendo transformadas por ella, y las instituciones se están apresurando a preparar a su gente. Al mismo tiempo, sin embargo, el simple acto de usar IA, especialmente en la escritura o la generación de ideas, sigue siendo tabú.
Un estudiante que presente un trabajo claramente asistido por IA puede enfrentar disciplina. Un empleado que redacta un informe con ChatGPT corre el riesgo de dañar su reputación si es descubierto. La IA está lejos de ser un secreto, pero el uso de la misma, en cierto grado, sí lo es. Esta es una paradoja con consecuencias reales, y revela algo más profundo: aún no hemos llegado a un acuerdo sobre para qué es la IA, qué debería y no debería hacer, y cómo valoramos el trabajo, la habilidad y la originalidad en un mundo integrado por IA. Estamos atrapados en un momento de transición, pidiéndole a la gente que aprenda herramientas que no se supone que admitan usar. Esa tensión, entre el deseo de progreso y la necesidad de autenticidad, está resultando difícil de resolver.
Las escuelas de negocios ofrecen cursos sobre los impulsos. Los empleadores, desde McKinsey hasta Deloitte, están reentrenando a las fuerzas laborales: Wall Street entrena a analistas para usar inteligencia artificial en modelado y cumplimiento; bufetes de abogados para resúmenes de casos, sistemas de atención médica para diagnósticos; y a los especialistas en marketing para contenido. Una escuela o empresa que ignore la inteligencia artificial corre el riesgo de volverse obsoleta.
Sin embargo, cuando ese mismo estudiante o empleado presenta un trabajo pulido asistido por inteligencia artificial, la reacción suele ser de sospecha. El "¿lo escribiste tú?" se convierte en una acusación en lugar de una pregunta. Si la respuesta es "no realmente", pueden surgir consecuencias, sin importar lo ingeniosos y numerosos que hayan sido los impulsos que impulsaron el trabajo. Las escuelas aún amenazan con la expulsión por "plagio de IA", y las empresas esperan implícitamente que los empleados oculten su uso de herramientas generativas, incluso cuando los entrenan para ser competentes. ¿Qué está pasando?
Estamos aplicando estándares antiguos a una nueva realidad mientras lidiamos con la tensión entre dos instintos: el impulso por la eficiencia y el respeto por la originalidad humana. Además, tenemos la necesidad social de juzgarnos mutuamente, ya sea para calificaciones, contrataciones, evaluación del desempeño, acreditación o promoción. Parece que el talento por sí solo no es suficiente.
Por lo tanto, queremos lo mejor que la inteligencia artificial tiene para ofrecer: velocidad, reducción de costos, escalabilidad; pero seguimos juzgando el trabajo en función de cuánto de él parece "auténtico". Queremos que la IA nos haga más inteligentes y rápidos, pero solo detrás de escena. Esa contradicción no es sostenible.
Para ser justos, las instituciones no están ignorando el desafío. Las universidades están perfeccionando los códigos de honor. Las empresas están redactando políticas de uso de IA. Incluso las facultades de humanidades ahora exploran la intersección de la IA con la creatividad, la ética y la autoría. Y parece probable que lo hagan.
Parece claro que la IA no debe ser abrazada sin escrutinio. Cuando los estudiantes usan la IA para saltarse el proceso de aprendizaje, pierden habilidades vitales. Cuando los trabajadores confían demasiado en ella, corren el riesgo de disminuir su juicio y experiencia. Y en campos de alto riesgo como el derecho, la medicina o el periodismo, los errores en el contenido generado por IA (cuya frecuencia se espera que disminuya) pueden tener consecuencias serias o incluso catastróficas. También está la confianza: presentar el trabajo creado por IA como propio puede resultar engañoso.
Estas preocupaciones son reales e importantes, pero no deben llevarnos a demonizar el uso de la IA en general. En cambio, deberíamos refinar cómo evaluamos el esfuerzo y la originalidad. Deberíamos desarrollar estándares que reconozcan los grados y tipos de participación de la IA. Si un estudiante usa la IA para brainstorming, organizar o refinar un ensayo, eso está a años luz de usar una herramienta para generar toda la presentación. Del mismo modo, un empleado que resuma un documento legal complejo con IA aún puede aportar ideas valiosas y un marco estratégico. La herramienta puede ayudar, pero el pensamiento sigue siendo humano.
La transparencia es clave. Alentar a las personas a revelar cómo usaron la IA permite conversaciones honestas sobre lo que se considera un mal uso frente a una mejora inteligente. Las instituciones —académicas y profesionales— pueden liderar el camino creando entornos donde tales revelaciones estén normalizadas e incluso recompensadas. En lugar de preguntar "¿usaste IA?" deberíamos preguntar: ¿Cómo la usaste? ¿Qué partes contribuiste? ¿Qué juicios hiciste?
Tratar la colaboración de IA como una habilidad
Necesitamos tratar la colaboración de IA como una habilidad en sí misma; una comprensión que ya está ocurriendo. Saber cómo incitar, cuestionar, verificar y reformular la salida de IA no es trivial. Requiere creatividad, claridad y pensamiento crítico. Así como usar una calculadora no significa que alguien no pueda hacer matemáticas, usar un chatbot no significa que alguien carezca de ideas. De hecho, usar la IA de manera efectiva – equilibrando sus capacidades con tu propio juicio – será un sello distintivo de alta competencia en un futuro cercano.
Dicho esto, las limitaciones son críticas en la educación, especialmente. Ningún sistema puede funcionar si no evalúa si los estudiantes pueden realizar tareas básicas por sí mismos. Las calificaciones y títulos deben reflejar el conocimiento y capacidades reales de una persona - y en la mayoría de los campos, un conocimiento meramente rudimentario combinado con habilidades de IA no debería ser suficiente. Esto significa mantener entornos de evaluación donde no se permita asistencia digital: sin IA, sin dispositivos, sin autocompletado. No porque temamos a la IA, sino porque necesitamos bases para el rendimiento humano sin asistencia. Así como un piloto debe demostrar la capacidad de volar sin piloto automático, un estudiante debe ser capaz de razonar y escribir sin IA.
Si abandonamos esas líneas de base, corremos el riesgo de algo mayor que estándares en declive. Corremos el riesgo de permitir que la inteligencia artificial se convierta en una versión falsa de nosotros mismos, sustituyendo habilidades y procesos de pensamiento que ya no nos molestamos en desarrollar. Una sociedad llena de personas que dependen de herramientas que no entienden ni controlan no está empoderada. Es vacía y frágil.
Por lo tanto, necesitamos evolucionar nuestras expectativas culturales en torno a la autoría y el esfuerzo. Eso significa distinguir entre la automatización sin sentido y la colaboración reflexiva. La inteligencia artificial está aquí para quedarse, y las instituciones que descubren cómo integrarla con integridad tendrán una ventaja distintiva. Si logramos este equilibrio adecuadamente, la inteligencia artificial puede hacernos más agudos, rápidos y capaces. Si nos equivocamos, producirá humanos mediocres con estándares diluidos. La elección no es entre dominio y honestidad. Necesitamos ambos.
Dan Perry es el ex editor en Oriente Medio con sede en El Cairo y editor de Europa/África con sede en Londres de Associated Press, quien tiene una Maestría en Ciencias de la Computación de la Universidad de Columbia y publica danperry.substack.com. El veterano empresario Ronni Zahavi es el fundador y CEO de HiBob, un innovador tecnológico en recursos humanos y un unicornio impulsado por inteligencia artificial.