Skip to main content

Una educación más humana en la era de la inteligencia artificial

Las oportunidades ofrece la IA están a la vista, pero es importante reflexionar y debatir antes de actuar, tanto sobre aquellos aspectos que no comprendemos bien, como sobre los que incluso ignoramos que desconocemos

CRISTÓBAL COBO

¿Deberíamos decirle adiós a la exclusividad del pensamiento humano? La Inteligencia Artificial Generativa (IAG) desafía la idea de que la creatividad es de un dominio exclusivo del homo sapiens. ¿Representa esto una nueva era de creación humano-máquina o una amenaza a la originalidad humana? ¿Qué papel ha de jugar la educación?

Si bien la evidencia científica sobre el impacto de la inteligencia artificial en la educación aún es insuficiente, hoy emergen claros ejemplos sobre cómo esta tecnología puede facilitar tareas administrativas, así como ofrecer recursos complementarios para ampliar o enriquecer el aprendizaje.

Esta tecnología está dando pasos acelerados. Ha pasado su etapa de infante que escucha, ve, habla, y dibuja a la de leer y escribir, programar, analizar complejas planillas de datos, integrar reportes, hablar infinidad de idiomas, y responder a muchísimas otras funciones que emergen constantemente desde el sector tecnológico a una velocidad notable. Su adopción ha sido a escalas y ritmos nunca vistos. En investigaciones recientes, los estudiantes describen entusiastas a la inteligencia artificial como un “cerebro externo”.

Sin embargo, toda disrupción genera reajustes. Los gobiernos, a velocidades distintas, adoptan nuevos marcos regulatorios, guías y de protección. Las instituciones educativas publican directrices y orientaciones para aconsejar a docentes y estudiantes. Esta es una tarea tan importante como compleja, ya que es difícil ofrecer guías sobre una tecnología que no comprendemos por completo y que además cambia constantemente.

Si bien las oportunidades que estas tecnologías ofrecen están a la vista, será importante reflexionar y debatir (antes de actuar) tanto sobre aquellos aspectos que no comprendemos bien, como sobre aquellos asuntos que incluso ignoramos que desconocemos (o que no sabemos que no sabemos). Por ejemplo: ¿Qué implicaciones tiene adoptar de manera ubicua máquinas que piensan por nosotros? ¿Cuáles son los efectos de automatizar la cognición, y cómo impactará esto en la formación de las nuevas generaciones? ¿Se puede prescindir de enseñar conocimientos y habilidades que son fácilmente automatizables? ¿Qué ocurre con la protección de datos y la privacidad cuando estas máquinas están programadas para aprender y no (desaprender) olvidar?

Tomando en cuenta la extracción de minerales y la huella de carbono que estas tecnologías generan, ¿podemos permitirnos impulsar la IAG si aún sabemos poco sobre su impacto en el medio ambiente? ¿Y qué lecciones podemos adoptar de las disrupciones tecnológicas anteriores para evitar ampliar las enormes brechas que existen entre los que tenemos acceso a herramientas digitales y formación, y quienes no?

Para responder estas y otras preguntas, podemos interrogar a estos agentes incorrectamente llamados “inteligentes” (carecen de comprensión emocional, conciencia de sí mismos, o intuición). Sin embargo, sugiero que en esta ocasión no desaprovechemos la oportunidad de pensar por nosotros mismos sobre cómo actuar con sabiduría y visión de futuro para reflexionar sobre cuatro vectores críticos.

Primero, dotar de una infraestructura tecnológica, de conectividad y datos que esté mejor distribuida en diferentes latitudes del planeta (ver dónde hay ausencia de acceso a Internet puede ser un buen punto de referencia).

Segundo, una gobernanza a la altura de las circunstancias. No se trata solo de publicar un documento marco, que es muy importante. También hay que brindar las orientaciones, las protecciones, los apoyos, las coordinaciones y las salvaguardas necesarias. Es probable que las instituciones que hoy existen tengan que revisarse (o reinventarse), ya que muy probablemente fueron creadas para desempeñarse en un paradigma muy diferente al actual.

Tercero, la protección de riesgos asociados a esta tecnología. Más investigación es esencial. Es fundamental desarrollar la capacidad de monitorear y velar por los riesgos conocidos (así como por los que estamos por descubrir). La automatización de la desinformación, la manipulación, los sesgos, los plagios, la violación de la privacidad, entre otros, hemos de verlos no como una nueva pandemia informacional, sino como una agenda educativa a atender. Esta agenda se debe abordar tanto desde la regulación como desde la formación de nuevos empleos y perfiles que puedan enfrentar estos retos.

Y cuarto, la generación de capacidades. Las tecnologías evolucionan rápido, pero pronto pasan de moda. Las personas, en cambio, tenemos una capacidad de adaptación sorprendente. La tecnología que hace doce meses nos parecía mágica, hoy es solo una herramienta y probablemente pronto la dejemos de considerar como disruptiva. Pero ello implica desarrollar nuevas habilidades tanto en los diferentes niveles educativos como en la ciudadanía. Por ejemplo, revisar qué significa estar alfabetizado en este contexto, qué ajustes hacer en los planes de estudio, así como en las formas de enseñar y aplicar el conocimiento. ¿Cómo ponemos esta tecnología al servicio de los docentes y no al revés?

En definitiva, abrazar sin reparos ni controles la disrupción que plantea la IAG puede ser tan perjudicial como ignorar o incluso prohibir su uso. Si algo hemos aprendido en estos meses de expansión de la inteligencia artificial es que la apertura y la cautela han de ir de la mano. Aunque avancemos en vehículos autónomos, no podemos navegar hacia el futuro sin dejar de mirar el espejo retrovisor.

Cristóbal Cobo es especialista en Educación y Tecnología para el Banco Mundial.

https://elpais.com/proyecto-tendencias/2024-02-21/una-educacion-mas-humana-en-la-era-de-la-inteligencia-artificial.ht