Inteligencia artificial: la nueva era de investigación científica

Heber Leal y Joaquin Giannotti, académicos U. Mayor, Director y académico del Núcleo de Ciencias Sociales y Artes, Universidad Mayor, escriben columna de opinión en El Mostrador, el 27 de noviembre de 2024.


No podemos permitirnos el lujo de la pereza intelectual y simplemente esperar las consecuencias. Debemos sumergir las manos en las máquinas, estar presentes en los laboratorios, ser parte activa de los procesos.

El modelo más reciente de OpenAI, o1, está causando sensación por sus sorprendentes resultados. En los exámenes clasificatorios de la Olimpiada Internacional de Matemáticas resolvió el 83% de los problemas, en comparación con el 13% de su predecesor, GPT-4o. En tanto, en tareas de física, química y biología está rindiendo a la par de expertos con nivel de doctorado. Impresionante, ¿verdad?

El arribo de o1 marca un hito en la evolución de la IA, al ser parte de una línea más sofisticada que emplea técnicas de “aprendizaje por refuerzo”. De este modo, puede abordar problemas de manera más autónoma, sin depender tanto de los patrones de entrenamiento previos, lo que lo hace especialmente valioso para la investigación científica y otras áreas complejas.

Hasta hoy nadie puede negar los beneficios potenciales de integrar la IA en la investigación científica, ya que las mejoras en procesamiento y comprensión contextual han permitido que no solo resuelva problemas sino que también ayude a plantear nuevas preguntas, lo cual es un giro profundo en la forma en que se concibe la ciencia.

Sin embargo, por poderosos que sean los modelos como o1, también aumentan la necesidad de un uso responsable y ético, particularmente en este ámbito, pues la discusión no se trata solo de cumplir con regulaciones, sino que también de incorporar principios éticos en el núcleo del uso de la IA.

Así, en lugar de fijarnos únicamente en los resultados, debemos adoptar un enfoque “virtuoso” que enfatice las responsabilidades que los agentes humanos deben asumir al utilizar la IA. ¿Qué principios éticos debemos seguir para servir al bien común? ¿Cómo podemos fomentar un futuro impulsado por la IA que sea justo, responsable y beneficioso para la sociedad?

Aquí es donde entra una reflexión crucial: el avance de la IA es sistemático y gradual, y si realmente queremos hacer una ética o filosofía de la IA, no podemos adoptar una actitud pasiva. No podemos permitirnos el lujo de la pereza intelectual y simplemente esperar las consecuencias. Debemos sumergir las manos en las máquinas, estar presentes en los laboratorios, ser parte activa de los procesos.

Este involucramiento debe ser guiado por una “sabiduría conectada y crítica”, que combine precaución con comprensión profunda. Solo así podremos evitar el error de observar desde una atalaya intelectual con negatividad y, en su lugar, convertirnos en agentes responsables de esta transformación tecnológica.

Heber Leal y Joaquin Giannotti, académicos U. Mayor, Director y académico del Núcleo de Ciencias Sociales y Artes.