Juzgar a los demás en la era de la IA

Observar, juzgar y criticar a los demás es de mala persona. Puede ser. Pero también es útil. Nuestra capacidad de colaborar con otros se basa en que podamos evaluarlos y anticipar cómo se comportarán, si son idóneos, si podemos o no confiar en ellos. Sin eso no hay proyectos posibles. Nadie construye algo grande solo.

La capacidad de evaluar a los demás, tan central, está bastante afectada por la proliferación de la inteligencia artificial. Se puede ver en muchos ámbitos. Los profesores que ponen nota a sus alumnos, las empresas que consideran postulantes, incluso los ciudadanos que votamos candidatos; todos tenemos pocos recursos para juzgar a otros que probablemente estén usando IA para embellecer la cara que nos muestran.

El caso de las contrataciones es dramático. Un estudio de la empresa Kaspersky calculó que 42% de los CV que se presentan hoy a una búsqueda fueron escritos o editados por IA. La empresa Artic Shores, un servicio digital para evaluar candidatos, se presenta con un gran titular: “ChatGPT rompió el reclutamiento tradicional”. Es fácil para ellos criticar porque ese problema dio pie a su negocio. Ofrecen una forma de evaluar a los postulantes con una serie de pruebas de neurociencia, que reemplazan la evaluación del CV o cualquier tipo de carta de presentación, recomendación, etcétera.

Todos tenemos pocos recursos para juzgar a otros que probablemente estén usando IA para embellecer la cara que nos muestran

Uno podría pensar que la solución es siempre evaluar con entrevistas. Ahí sin duda están los famosos humanos de los “recursos humanos”. Pero eso tiene dos problemas. El primero, más obvio, es que no se puede entrevistar a todos. Si falla el primer filtro, el que hoy se hace mirando un CV, un perfil de Linkedin o un portfolio, ¿quién asegura que los mejores candidatos lleguen al final? Pero incluso si eso se resolviera, las entrevistas no son la panacea. Las redes están llenas de historias donde un candidato intenta seguir un guion escrito por una IA.

Un estudiante veinteañero de la universidad de Columbia lanzó una startup –Interview Coder– para ayudar a los programadores a hacer trampas en las entrevistas. Les da soluciones a los problemas de código que se les plantean, incluido un guion para que puedan explicar el razonamiento detrás de la solución, de una manera que resulta indetectable para los entrevistadores, que a esta altura son expertos en detectar ojos que se corren al costado de la pantalla, o pausas extrañas seguidas de soluciones tan perfectas que parecen sospechosas. El creador de esta idea la promociona con un video donde se lo ve conseguir un trabajo en Amazon con este método. En un evento en febrero, Sundai Pichai, CEO de Google, dijo que está considerando que las entrevistas de trabajo vuelvan a ser presenciales.

En el mundo de la evaluación escolar la cosa no va mucho mejor. Millones de estudiantes usan IA para mejorar su tarea. Acá, de nuevo, la solución parece ser presencial. Tomar pruebas como las de antes, en el aula, con lapicera y papel. O bien, con un enfoque más creativo, dejar que los estudiantes usen libremente herramientas de IA y tengan que dar cuenta de cómo las usaron y qué les corregirían. Ejercer su mirada crítica.

En una entrevista en enero, Sam Altman aseguró que su hijo nunca será más inteligente que la IA

El problema de estos enfoques que premian al “humano aumentado por IA” es que, a medida que la IA mejora, será cada vez más difícil para nosotros encontrarle los puntos débiles, y eso desequilibra la colaboración. ¿Seremos humanos aumentados por IA o IA ralentizadas por humanos?

En una entrevista en enero, Sam Altman aseguró que su hijo nunca será más inteligente que la IA. Hoy tiene 4 meses. Tal vez lo inteligente y humano sea empezar a considerar estos temas ahora, antes de que el niño entre a la escuela o, ni que hablar, al mercado laboral.

La autora es directora de Sociopúblico

Observar, juzgar y criticar a los demás es de mala persona. Puede ser. Pero también es útil. Nuestra capacidad de colaborar con otros se basa en que podamos evaluarlos y anticipar cómo se comportarán, si son idóneos, si podemos o no confiar en ellos. Sin eso no hay proyectos posibles. Nadie construye algo grande solo.

La capacidad de evaluar a los demás, tan central, está bastante afectada por la proliferación de la inteligencia artificial. Se puede ver en muchos ámbitos. Los profesores que ponen nota a sus alumnos, las empresas que consideran postulantes, incluso los ciudadanos que votamos candidatos; todos tenemos pocos recursos para juzgar a otros que probablemente estén usando IA para embellecer la cara que nos muestran.

El caso de las contrataciones es dramático. Un estudio de la empresa Kaspersky calculó que 42% de los CV que se presentan hoy a una búsqueda fueron escritos o editados por IA. La empresa Artic Shores, un servicio digital para evaluar candidatos, se presenta con un gran titular: “ChatGPT rompió el reclutamiento tradicional”. Es fácil para ellos criticar porque ese problema dio pie a su negocio. Ofrecen una forma de evaluar a los postulantes con una serie de pruebas de neurociencia, que reemplazan la evaluación del CV o cualquier tipo de carta de presentación, recomendación, etcétera.

Todos tenemos pocos recursos para juzgar a otros que probablemente estén usando IA para embellecer la cara que nos muestran

Uno podría pensar que la solución es siempre evaluar con entrevistas. Ahí sin duda están los famosos humanos de los “recursos humanos”. Pero eso tiene dos problemas. El primero, más obvio, es que no se puede entrevistar a todos. Si falla el primer filtro, el que hoy se hace mirando un CV, un perfil de Linkedin o un portfolio, ¿quién asegura que los mejores candidatos lleguen al final? Pero incluso si eso se resolviera, las entrevistas no son la panacea. Las redes están llenas de historias donde un candidato intenta seguir un guion escrito por una IA.

Un estudiante veinteañero de la universidad de Columbia lanzó una startup –Interview Coder– para ayudar a los programadores a hacer trampas en las entrevistas. Les da soluciones a los problemas de código que se les plantean, incluido un guion para que puedan explicar el razonamiento detrás de la solución, de una manera que resulta indetectable para los entrevistadores, que a esta altura son expertos en detectar ojos que se corren al costado de la pantalla, o pausas extrañas seguidas de soluciones tan perfectas que parecen sospechosas. El creador de esta idea la promociona con un video donde se lo ve conseguir un trabajo en Amazon con este método. En un evento en febrero, Sundai Pichai, CEO de Google, dijo que está considerando que las entrevistas de trabajo vuelvan a ser presenciales.

En el mundo de la evaluación escolar la cosa no va mucho mejor. Millones de estudiantes usan IA para mejorar su tarea. Acá, de nuevo, la solución parece ser presencial. Tomar pruebas como las de antes, en el aula, con lapicera y papel. O bien, con un enfoque más creativo, dejar que los estudiantes usen libremente herramientas de IA y tengan que dar cuenta de cómo las usaron y qué les corregirían. Ejercer su mirada crítica.

En una entrevista en enero, Sam Altman aseguró que su hijo nunca será más inteligente que la IA

El problema de estos enfoques que premian al “humano aumentado por IA” es que, a medida que la IA mejora, será cada vez más difícil para nosotros encontrarle los puntos débiles, y eso desequilibra la colaboración. ¿Seremos humanos aumentados por IA o IA ralentizadas por humanos?

En una entrevista en enero, Sam Altman aseguró que su hijo nunca será más inteligente que la IA. Hoy tiene 4 meses. Tal vez lo inteligente y humano sea empezar a considerar estos temas ahora, antes de que el niño entre a la escuela o, ni que hablar, al mercado laboral.

La autora es directora de Sociopúblico

 ¿Cómo calificar un CV o un examen escolar en tiempos donde los dispositivos tecnológicos son capaces de embellecer casi todo?  Read More