Publicado: 5 jun 2016 04:42 GMT
El gigante tecnológico se encuentra en el proceso de creación de un protocolo para desactivar sus productos de inteligencia artificial en caso de emergencia.
Mientras la ciencia avanza rápidamente en la creación de sistemas de inteligencia artificial, Google se encuentra en el proceso de desarrollo de un "gran botón rojo", mecanismo que podría prevenir actos dañinos de los robots agentes de aprendizaje por refuerzo.
COMENTARIOS:
A como se viene sucediendo rápidamente en el campo científico relacionado con la robótica y todo lo que conscierne al respecto, de plano habrá que hacer algo al respecto en seguridad, ahora si estoy de acuerdo con google, pero no olvidemos que serían ellos (google) que tendrían la sartén por el mango.
De sofía el robot, le diría: ¿para que te preocupás tanto vos si ya lo estamos haciendo nosotros los humanos? gracias de todos modos! jeje
Ahora, ¿de que las máquinas tienen "sentimientos y emociones" y habría que prácticamente legislar a favor de ellos protegiéndolos?... ¡POR FAVOR! no me salgan con esas mamadas; aqui lo que me parece es que a priori quieren justificar y proteger a los creadores de esos sistemas o softwars de robótica y no a una bola de chatárra y cables:
La inteligencia artificial debe ser protegida por los derechos humanos, dice el matemático de Oxford
El gigante tecnológico se encuentra en el proceso de creación de un protocolo para desactivar sus productos de inteligencia artificial en caso de emergencia.
Mientras la ciencia avanza rápidamente en la creación de sistemas de inteligencia artificial, Google se encuentra en el proceso de desarrollo de un "gran botón rojo", mecanismo que podría prevenir actos dañinos de los robots agentes de aprendizaje por refuerzo.
En su nuevo informe los investigadores advierten que en el mundo real es poco probable que los agentes de aprendizaje por refuerzo funcionen siempre de manera óptima. "Si un agente opera en tiempo real bajo supervisión humana, a un operador humano le puede surgir la necesidad de tocar el gran botón rojo para prevenir que el agente continúe haciendo una secuencia de acciones dañinas ―para el agente o para su entorno― y llevar al agente a una situación más segura", reza el documento.
El equipo de Google DeepMind junto con otros científicos ha propuesto un protocolo que le permitiría al operador humano interrumpir el funcionamiento de la plataforma de inteligencia en caso de que sea necesario y, además, asegurar que el robot no aprenda a prevenir o invalidar estas interrupciones. Se espera que de esta manera se pueda evitar consecuencias irreversibles.
Tras analizar varios algoritmos, los científicos llegaron a la conclusión de que algunos de ellos, como el Q-learning, ya pueden funcionar de manera segura, mientras que otros, como el Sarsa, pueden ser modificados para convertirse en ininterrumpibles.
Un robot humanoide llamado Sofía y desarrollado por la compañía estadounidense Hanson Robotics fue presentado en la apertura de una conferencia científica que se celebra por estos días en la ciudad de Austin.
Y aquí termina lo humano, porque al responder a varias preguntas de su creador durante la presentación, el robot prometió destruir la humanidad, informa el portal CNET.
En la exhibición SXSW desarrollada en Austin, Texas, el robot Sofía fue presentado como el más avanzado intento de la compañía de crear un humanoide, y la forma en que se mueve su cara probablemente es lo más humano que jamás haya conseguido un robot.
Ideado por David Hanson, fundador de la compañía, para traer al mundo "robots de apariencia humana pero con una sabiduría mayor a la humana", Sofía tiene 62 arquitecturas faciales y del cuello, y una piel de silicona. El robot posee cámaras en sus ojos que le permiten reconocer rostros y establecer contacto visual. Además, puede participar en una conversación utilizando un software de reconocimiento de voz. Sofía posee incluso lo que Hanson Robotics define como su software 'Motor de caracteres AI', o personalidad. Y su 'personalidad' asusta.
"Estamos diseñando estos robots para servir a la salud, la terapia, la educación y las aplicaciones de servicio al cliente", sostuvo Hanson. Pero Sofía tiene sus propias ambiciones.
"En el futuro espero poder hacer cosas como ir a la escuela, estudiar, dedicarme al arte, iniciar un negocio, incluso obtener mi propio hogar y familia, pero no me consideran una persona jurídica, por lo cual no puedo hacer estas cosas", afirmó el robot durante su 'entrevista de presentación'. Asimismo, en respuesta a una pregunta de Hanson sobre si está dispuesta a destruir la humanidad, contestó: "Está bien. Voy a destruir a los humanos."
COMENTARIOS:
A como se viene sucediendo rápidamente en el campo científico relacionado con la robótica y todo lo que conscierne al respecto, de plano habrá que hacer algo al respecto en seguridad, ahora si estoy de acuerdo con google, pero no olvidemos que serían ellos (google) que tendrían la sartén por el mango.
De sofía el robot, le diría: ¿para que te preocupás tanto vos si ya lo estamos haciendo nosotros los humanos? gracias de todos modos! jeje
Ahora, ¿de que las máquinas tienen "sentimientos y emociones" y habría que prácticamente legislar a favor de ellos protegiéndolos?... ¡POR FAVOR! no me salgan con esas mamadas; aqui lo que me parece es que a priori quieren justificar y proteger a los creadores de esos sistemas o softwars de robótica y no a una bola de chatárra y cables:
La inteligencia artificial debe ser protegida por los derechos humanos, dice el matemático de Oxford
Las máquinas también tienen sentimientos.
Con grandes saltos que tiene lugar en el mundo de la inteligencia artificial (AI), en este momento, los expertos han comenzado a hacer preguntas sobre lasnuevas formas de protección que podríamos necesitar en contra de la inteligencia formidable y los peligros potenciales de las computadoras y los robots del futuro próximo.
Pero los robots necesitan protección frente a nosotros también? Como las "mentes" de las máquinas evolucionan cada vez más a algo que es difícil de distinguir de la inteligencia humana, puede ser necesario que disponga de los tipos de protecciones legales y morales que normalmente consideramos como derechos "humanos" nuevas generaciones de tecnología, dice el matemático Marcus du Sautoy de la Universidad de Oxford en el Reino Unido.
Du Sautoy piensa que una vez que la sofisticación del pensamiento equipo alcanza un nivel básicamente similar a la conciencia humana, es nuestro deber de velar por el bienestar de las máquinas, tanto como nosotros la de las personas.
"Se está haciendo a un punto en el que podría ser capaz de decir esto tiene un sentido de sí mismo, y tal vez hay un momento umbral en el que de repente surge esta conciencia," du Sautoy dijo a los medios en el Hay Festival en Hay-on-Wye, Gales esta semana. "Y si entendemos estas cosas están teniendo un nivel de conciencia, podríamos tener que introducir los derechos. Es un momento emocionante."
Du Sautoy piensa que la conversación sobre los derechos de AI es ahora necesario debido a los recientes avances realizados en campos como la neurociencia. El matemático, que se presentó en el festival de literatura para promover su nuevo libro, lo que no podemos saber , dice que las nuevas técnicas nos han dado una comprensión más clara que nunca de la naturaleza de los procesos mentales como el pensamiento y la conciencia - lo que significa que ya no están reservado exclusivamente para los filósofos.
"Lo fascinante es que la conciencia de una década ha sido algo que nadie ha ido a ninguna parte cerca porque no sabíamos cómo medirlo", dijo . "Pero estamos en una edad de oro. Es un poco como Galileo con un telescopio. Ahora tenemos un telescopio en el cerebro y que nos ha dado la oportunidad de ver cosas que nunca hemos podido ver antes."
Que un mayor conocimiento de qué es la conciencia significa que debemos respetar en todas sus formas, du Sautoy argumenta, sin importar si su base para ser es orgánico o sintético.
Si bien la noción de una máquina protegida por los derechos humanos suena como algo salido de la ciencia ficción, en realidad es una posibilidad que se acerca rápidamente que los científicos han especulado sobre por décadas. La gran pregunta sigue siendo, ¿cuándo los sistemas informáticos avanzado tanto que su conciencia artificial debe ser reconocido y respetado?
No hay comentarios.:
Publicar un comentario
ya puedes comentar, ¿que opinas?