Geoffrey Hinton, un reconocido informático conocido como “el padrino de la inteligencia artificial”, está teniendo serias dudas sobre el fruto de su trabajo.
Hinton ayudó crear tecnologías de inteligencia artificial que han sido determinantes para una nueva generación de chatbots como ChatGPT. Pero en entrevistas recientes, reveló que renunció a un alto cargo en Google específicamente para compartir sus inquietudes de que el desarrollo irrestricto de la inteligencia artificial plantea serios riesgos para la humanidad.
“Repentinamente he cambiado mis puntos de vista sobre si estas cosas serán más inteligentes que nosotros”, declaró en entrevista con MIT Technology Review. “Creo que están ahora muy cerca de serlo y que en el futuro serán mucho más inteligentes que nosotros… ¿cómo vamos a sobrevivir a eso?”
Hinton no es el único que tiene esas preocupaciones. Poco después de que la firma OpenAI lanzó en marzo su nueva versión de chatbot GPT-4, más de 1.000 científicos firmaron una carta pidiendo una pausa de seis meses en el desarrollo de la inteligencia artificial porque plantea “profundos riesgos a la sociedad y a la humanidad”.
LA INTELIGENCIA DEPENDE DE LAS REDES NEURONALES
Nuestros cerebros son capaces de resolver ecuaciones matemáticas, conducir automóviles y seguir la trama de una serie de televisión gracias a su talento inherente de almacenar y organizar información y producir soluciones para problemas espinosos. Lo que hace eso posible son las aproximadamente 86.000 millones de neuronas que tenemos dentro del cráneo y, lo que es más importante, las 100 billones de conexiones que esas neuronas forjan entre sí.
En comparación, la tecnología que fundamenta a ChatGPT cuenta con entre 500.000 y un billón de conexiones, dijo Hinton en la entrevista. Aunque ello parece menos que la capacidad del cerebro humano, Hinton señala que GPT-4, el modelo de inteligencia artificial más reciente de OpenAI, sabe “cientos de veces más” de lo que sabe un ser humano. Es posible, indica, que tenga “un algoritmo de aprendizaje mucho mejor” y por lo tanto sea más eficiente en tareas cognitivas.
PROBABLEMENTE YA ES MÁS INTELIGENTE QUE NOSOTROS
Los expertos desde hace tiempo han sostenido que las redes neuronales artificiales demoran mucho más en absorber y aplicar nuevos conocimientos que las personas, ya que para entrenarlas se requiere gran cantidad de energía e información. Eso ya no es así, argumenta Hinton, destacando que sistemas como GPT-4 son capaces de aprender sumamente rápido una vez que son entrenados por los investigadores. Eso no es muy distinto a la manera en que, digamos, un físico profesional es capaz de analizar resultados de un experimento mucho más rápido que un estudiante de secundaria común.
Ello lleva a Hinton a concluir que los sistemas de inteligencia artificial probablemente ya son más inteligentes que nosotros. No sólo pueden captar cosas más rápido, sino que pueden compartir copias de su conocimiento entre ellos casi instantáneamente.
“Es un tipo de inteligencia totalmente distinta”, dice Hinton. “Un nuevo y mejor tipo de inteligencia”.
USOS NEGATIVOS de la IA
¿Qué podrían hacer sistemas de inteligencia artificial más inteligentes que los humanos? Una posibilidad espeluznante es que individuos, grupos o Estados mal intencionados los usen para alcanzar sus propósitos. Hinton está particularmente preocupado por la posibilidad de que estas herramientas sean usadas para manipular resultados electorales o iniciar guerras.
La desinformación electoral propagada por chatbots, por ejemplo, podría ser la nueva versión de la desinformación electoral que anteriormente se propagaba por Facebook u otras redes sociales.
Y eso podría ser apenas el comienzo. “No duden ni por un instante que Putin estaría dispuesto a usar robots inteligentes para matar ucranianos”, dijo Hinton en el artículo. “Él no vacilaría”.
Comentarios