Inteligencia artificial
Geoffrey Hinton, padrino de la IA, alerta de sus peligros: “No me sorprendería que desarrollase un lenguaje y no tuviésemos ni idea de lo que piensa”
Los peligros de un avance incontrolado de la inteligencia artificial están en el punto de mira de uno de los precursores del campo que centra la carrera del avance tecnológico actual
Haber sido una de las primeras personas que decidió estudiar y desarrollar el aprendizaje profundo o en investigar las maneras de utilizar las redes neuronales para el aprendizaje de máquinas, memoria, percepción y procesamiento de símbolos como etapas previas a lo que hoy vemos como inteligencia artificial confieren a Geoffrey Hinton el estatus de padrino de la IA. Un “título” que ostenta junto a Yann LeCun y Yoshua Bengio, con quienes compartió el Premio Turing en 2018 precisamente por su trabajo en el aprendizaje profundo.
Lo que sucede es que el caso de Geoffrey Hinton tiene un componente muy particular: el científico británico rehúsa de todos los avances actuales que se están llevando a cabo en el campo en el que fue precursor junto a sus colegas. Para el experto británico, los peligros que afloran por el desarrollo de la inteligencia artificial hace tiempo que merecen de la atención general.
Capacidad de desarrollar un lenguaje propio
Y es que Hinton ve una serie de peligros en el avance de la inteligencia artificial que le llevaron a renunciar a su cargo en Google hace algo más de dos años. Durante ese periodo, ha participado, y siguen haciéndolo, en innumerables espacios sobre la materia en los que no duda en manifestar su postura, tratando de concienciar a responsables y gobiernos ante una pérdida de control sobre una tecnología cuyo potencial resulta difícil de calibrar.
El pasado 24 de julio Geoffrey Hinton participó en el podcast One Decision, un espacio que analiza y ofrece perspectivas profundas y un análisis experto de las estrategias que definen las relaciones internacionales. En su intervención, Hinton mostró un temor que nadie se había planteado hasta la fecha en relación a la evolución de la inteligencia artificial: la posibilidad de que desarrolle su propio lenguaje, imposible de interpretar por los humanos.
El científico y experto señalaba cómo hasta el momento resulta sencillo seguir las cadenas de razonamiento de la IA, cuestión que podría cambiar si ésta adoptase un lenguaje propio: “Si desarrollan sus propios lenguajes internos para comunicarse entre sí, la cosa se pone más seria”, destacó. Sería el primer indicio de que esa pérdida de control que lleva tiempo apuntado el premio Nobel de Física de 2024 junto John Hopfield.
Una idea que no parece tan descabellada, más si cabe cuando existen multitud de personalidades relacionadas con la evolución de la inteligencia artificial que apuntan a la consecución de una inteligencia artificial general (AGI) o superinteligencia, cuestión que refrendó el sentir de Hinton: “No me sorprendería que desarrollasen su propio lenguaje y que no tuviésemos ni idea de lo que piensan y no entendamos lo que hace”, recalcó durante la conversación con los periodistas Kate McCann y Sir Richard Dearlove.
Unas palabras que para alguien con experiencia en los primeros pasos de la inteligencia artificial y que años después pasó más de una década trabajando para Google deberían ser sinónimo de advertencia que tener en consideración. Los peligros que a ojos de Geoffrey Hinton alberga la evolución incontrolada de la inteligencia artificial ponen en riesgo el estado del bienestar actual al ser capaz de tomar decisiones que escapan a nuestro control.
Leer en la fuente
QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.