“Hallamos la inmortalidad, pero no para nosotros”: las advertencias del «padrino» de la IA

Geoffrey Hinton planteó varias advertencias sobre la inteligencia artificial. En Google impulsó su desarrollo. Conozca qué dijo.

ChatGPT y sus utilidades.
Inteligencia artificial. Imagen: tomada de freepik.es - @ rawpixel.com

A finales de 2022, OpenAI lanzó al público ChatGPT, un chatbot que utiliza inteligencia artificial. En menos de dos meses, ChatGPT superó los 100 millones de usuarios y generó discusiones sobre el impacto de la en la vida diaria.

Sin embargo, a esa revolución tecnológica no le han faltado las advertencias. La más reciente vino de Geoffrey Hinton, quien hasta el pasado fin de semana fue el jefe de desarrollo de inteligencia artificial en . Y no solo eso. Hinton es considerado como el “padrino” de esta por las investigaciones que desarrolló desde los años 70.

Pero ahora, y habiendo salido del gigante tecnológico, ha buscado hacer públicas sus advertencias sobre la inteligencia artificial.

Las advertencias sobre la inteligencia artificial de Geoffrey Hinton

En conversación con Will Douglas Heaven, editor senior del MIT Technology Review, Hinton -quien ganó el Premio Turning en 2018, considerado el Nobel de la informática- explicó sus advertencias sobre la inteligencia artificial.

“He cambiado mucho mi forma de ver la relación entre el cerebro y el tipo de inteligencia que estamos desarrollando. Solía pensar que los modelos computacionales no se desarrollaban tan bien como el cerebro. Pero en los últimos meses, me he dado cuenta de que esos modelos actúan de manera completamente distinta al cerebro”, señala.

Esto, porque son capaces de almacenar mucho más conocimiento que el cerebro humano, con menos conexiones neuronales. “(La inteligencia artificial) tiene un billón de conexiones y nosotros tenemos 100 billones”, indica.

Advertencias sobre la inteligencia artificial - Geoffrey Hinton
Geoffrey Hinton trabajó en Google en 2013. Renunció al gigante tecnológico por sus preocupaciones frente al desarrollo de la inteligencia artificial. Foto: MIT Technology Review

Otra de las advertencias sobre la inteligencia artificial que hace el científico canadiense es que, aunque, en la actualidad, “somos mejores en el razonamiento lógico, me impresiona la capacidad que ha adquirido GPT-4 (desarrollado por Open AI)” Y para esto da un ejemplo.

Cuenta que recientemente le puso un problema a ChatGPT: “quiero pintar toda mi casa de blanco. Pero algunas habitaciones son blancas, otras son azules y otras, amarillas. Y la pintura amarilla se desvanece a blanco en un año. ¿Qué puedo hacer si quiero que todas las paredes sean blancas en dos años? Y me respondió: ‘deberías pintar todas las paredes azules de amarillo’. Esa no es la solución lógica, pero funciona. Y es un razonamiento lógico que pensaba que no tenía la inteligencia artificial”.

Las malas intenciones y la evolución

Otra de las advertencias sobre la inteligencia artificial que hace Hinton no es tanto sobre la tecnología, sino sobre la naturaleza humana.

“Estaríamos más seguros en un mundo donde las personas no tuvieran malas intenciones y el sistema político no estuviera roto”, dice, “si no puedes solucionar un problema como no darle rifles de asalto a adolescentes, ¿cómo vamos a solucionar los inconvenientes de la inteligencia artificial?”.

Recomendado: Elon Musk le apuesta a la inteligencia artificial: crearía empresa rival de OpenAI

También señala otra preocupación que tiene: la evolución. Hinton explica que los humanos evolucionamos y, por tanto, tenemos ciertas “metas incorporadas” que son “difícil de ignorar”.

“Por ejemplo, intentamos no dañar nuestro cuerpo; de eso se trata el dolor. Buscamos comer. Y queremos tener tantas copias de nosotros como sea posible -quizá no con esa intención, pero estamos ‘programados’ para que haya placer en esa tarea-. Y todo eso provino de la evolución”.

Asegura que la inteligencia artificial no evoluciona, sino que fue desarrollada, y por tanto no tiene esas metas incorporadas. “Mi gran preocupación es que tarde o temprano alguien les dé la habilidad de crear sus propias metas, porque ya casi lo logramos”.

Y el problema, asegura, es que “si le das a algo la habilidad de crear sus propias submetas para conseguir otras metas, pronto se dará cuenta de que tener más control es una buena submeta, porque le permite conseguir otras metas. Y si estas cosas se dejan llevar con lo de tener control, estaremos en problemas”.

Aun así y a pesar de lo duras de las advertencias sobre la inteligencia artificial que hace, concluye, no es una opción detener su desarrollo, porque podrán ser útiles en distintas disciplinas como la medicina. El objetivo debería ser “que, aunque sean más inteligentes que nosotros, hagan cosas por nuestro beneficio”.

Convierta a Valora Analitik en su fuente de noticias