- Este blog no pide donaciones económicas ni anuncia basura publicitaria - 
        

lunes, 5 de mayo de 2014

STEPHEN HAWKING ADVIERTE DE LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL


Stephen Hawking ha dicho que una superinteligencia artificial será el acontecimiento más significativo en la historia del ser humano. Y posiblemente el último. En un artículo aparecido en el periódico británico The Independent, Hawking, junto a los científicos Stuart Rusell, Max Tegmark y Frank Wilczek, nos advierte de que, por encima de los indudables beneficios que se pueden obtener de una tecnología inteligente, los riesgos a los que ésta nos enfrentará son impredecibles.
Y poco más.
La reflexión no es nueva, ni siquiera profunda; por eso aparece en un diario de tirada masiva y por eso sólo se destaca el nombre de Hawking por encima del resto. Responde, como el propio redactor del artículo reconoce, al tirón mediático que el tema está generando tras el estreno de la películaTrascendence (que no va de inteligencias artificiales, pero aprovechando aquello del Pisuerga y demás…), donde Johnny Depp la debe liar parda tras un accidente por el que, para evitar su muerte, algunos colegas deciden “subir” su conciencia a una computadora. Pero la conciencia Depp ya no es como el antiguo humano Depp, y se dedica a hacerle la vida imposible a los mortales terrícolas, especialmente a Morgan Freeman, que luchará durante un par de horas por salvar a la humanidad y tal bajo la angustiada mirada de Rebecca Hall, la compañera sentimental del humano Depp que sufre de inquietud existencial por no poder aceptar que la computadora Depp ya no sea tan sentimental y sensible como lo era el humano Depp. Y más tal…
transcendence
Según el artículo en cuestión, los riesgos más cercanos de la I.A. (Inteligencia Artificial) vienen de su aplicación en asuntos militares, como los drones autónomos que la ONU está tratando de regular, incluso prohibir, pues la peña se siente más segura si tales drones están bajo control humano en todo momento, aunque el control humano tenga las mismas inclinaciones asesinas que un Terminator del futuro cuando por la cámara del avioncito se avista una aldea de pastores en algún lugar de Oriente Medio. Pero se ve que, ciertamente, el que haya un humano detrás del dron hace que la muerte sea, definitivamente, más humana; y la guerra, por supuesto, se podrá seguir acogiendo a causas humanitarias. Y tal y tal…
Pero el verdadero peligro de la I.A. no es que ésta sea autónoma y tenga mayores capacidades que el cerebro humano en cuestiones de fría logística. Esto ya casi es un hecho y, además, los humanos se bastan por sí mismos para ponerse en peligro. El auténtico problema vendrá cuando, tal y como apunta el artículo en cuestión con flemática brevedad, la I.A. sea capaz de mejorarse a sí misma y desarrollarse sin que humano alguno sepa, no ya de las consecuencias posibles de tal desarrollo, sino del funcionamiento mismo de una tecnología que se inventa a sí misma a tiempo real.
Eso es la singularidad de la que habla la cibernética. El punto en que el ser humano dejará de ser la inteligencia dominante; el punto en que la criatura superará a su creador.
En fin, podríamos profundizar un poco más en el tema pero, puesto que el artículo de The Independentparece estar dando de qué hablar con menos palabras que éste y la peli de Trascendence promete llenar salas con menos fundamento siquiera, probaremos a ser insustanciales por una vez.
Otro día, quizás; cuando el tema de la I.A. y la singularidad sea más popular que ahora, pero convenientemente sometido a la ficción gracias al ingenio hollywoodiense. Cuando, al hablar de peligros reales, la peña que se quede con artículos como el aparecido en The Independent, diga con ese toque de dejadez popular: “¡Ah, sí! Eso de que hablas es lo que sale en la peli esa del Johnny Depp, ¿no?”.
Parafraseando a Unamuno en versión ciberpunk: ¡Que piensen las máquinas!
Porque, si la tendencia evolutiva del ser humano es renunciar a su cerebro, sin duda que vamos a necesitar de la Inteligencia Artificial.
Aunque sólo sea para exterminarnos…
FUENTE

No hay comentarios: