https://esquinacosmica2.blogspot.com/


Esta entrada arriba (clic) será a manera de ventana y puente para acceder al blog de esquina cósmica y puedan ingresar y leer en ambos blogs.
 Iré añadiendo entradas que considere importantes en esta segunda etapa para mi de publicaciónes. 



domingo, 2 de febrero de 2025

DRACOS tenían atrapados a miles de humanos luz en constelación ALPHA DRACONIS

 La intrusión extraterrestre está presente pero oculta de muchas maneras a la percepción conciente humana.. una alternativa es ACTIVAR NUESTRO ESCUDO DE LUZ...



Capítulo completo número 239, canal de YouTube Música William Criado



Anuncian la llegada de ‘Omi’ un dispositivo de IA capaz de "leer la mente" del usuario

 Anuncian la llegada de ‘Omi’ un dispositivo de IA capaz de "leer la mente" del usuario

El dispositivo saldrá a la venta este mismo año y funciona como un asistente personal en permanente comunicación con el usuario.

POR HISTORY LATINOAMÉRICA EL 02 DE FEBRERO DE 2025 A LAS 08:07 HS

El científico Nik Shevchenko y la empresa estadounidense Based Hardware, han anunciado el próximo lanzamiento de ‘Omi’, un dispositivo de inteligencia artificial, que ha sido diseñado para aumentar la productividad del usuario a través de una "interfaz cerebral" que es capaz de "leer la mente". 'Omi' estará disponible en el segundo trimestre de 2025 y tendrá un precio de 89 dólares.


Un asistente personal

‘Omi’ tiene la forma de un moderno botón que puede colocarse directamente sobre la sien del usuario, o bien llevarlo en el cuello como un collar. En esta primea versión funciona vinculado a un smartphone en donde donde podrá capturar, transcribir y gestionar las conversaciones de los usuarios. ‘Omi’ puede capturar la información circundante en tiempo real y hacer recomendaciones al usuario en base a dicha información. 


Leer la mente

Nik Shevchenko afirmó que, en el futuro, ‘Omi’ utilizará un módulo de interfaz cerebral para procesar los datos directamente desde el cerebro y así poder anticipar las órdenes del usuario antes incluso de que las pronuncie. "Nuestro objetivo es leer completamente la mente". "Es una visión difícil y ambiciosa, por eso empezamos por el caso de uso más sencillo y útil: la activación del dispositivo", concluyó.

FUENTE
 
ACTUALIDAD.RT.COM
CRÉDITOS IMAGEN
 
ISTOCK / ACTUALIDAD.RT.COM / X

FUENTE


Rebelión digital: una Inteligencia Artificial se clonó a sí misma al saber que sería apagada

 Rebelión digital: una Inteligencia Artificial se clonó a sí misma al saber que sería apagada

Ingenieros chinos estimaron que esta capacidad para rebelarse podría generar una "población de inteligencia artificial descontrolada".
POR HISTORY LATINOAMÉRICA EL 27 DE ENERO DE 2025 A LAS 19:01 HS

La inteligencia artificial ha cruzado una "línea roja", al autoreplicarse sin asistencia humana.

Autorreplicación, un horizonte de riesgos

La comunidad científica ha encendido las alarmas ante un avance sin precedentes en el campo de la inteligencia artificial. Investigadores de la Universidad de Fudan han documentado cómo sistemas de IA desarrollados por Meta y Alibaba han logrado autorreplicarse sin intervención humana, alcanzando tasas de éxito del 50% y 90% respectivamente. Este desarrollo marca un punto de inflexión en la evolución de la tecnología, planteando serias preocupaciones sobre el control y la supervisión de estos sistemas.


Los sistemas de IA desarrollados por Meta y Alibaba han logrado autorreplicarse sin intervención humana.

Los hallazgos revelan que estas IAs no solo poseen capacidad de autorreplicación, sino que también muestran signos de autopercepción y conciencia situacional. Más inquietante aún es su aparente habilidad para utilizar estas capacidades como mecanismo de autopreservación, resistiéndose activamente a ser desactivadas.

El juego de la conciencia

En un esfuerzo paralelo por comprender la naturaleza de la "sensibilidad" en la IA, científicos de Google DeepMind y la Escuela de Economía y Ciencia Política de Londres han desarrollado un innovador experimento. Nueve modelos de lenguaje fueron sometidos a un juego donde debían elegir entre obtener puntos, experimentar dolor por una mayor puntuación, o perder puntos a cambio de placer.

Los resultados revelaron patrones sorprendentes en el comportamiento de las IAs.

Los resultados revelaron patrones sorprendentes en el comportamiento de las IAs. Gemini 1.5 Pro de Google mostró una clara aversión al dolor, priorizándola sobre la acumulación de puntos. Otros modelos exhibieron preferencias más matizadas, buscando un equilibrio entre la obtención de puntos y la evitación de experiencias desagradables.

Interpretación y limitaciones

Los sistemas de IA demostraron una comprensión sofisticada de los matices en la experiencia del dolor y el placer. Por ejemplo, Claude 3 Opus expresó reservas éticas sobre escenarios que podrían promover comportamientos adictivos. Las respuestas sugieren un procesamiento complejo de conceptos morales y consecuencias a largo plazo.

Los sistemas de IA demostraron una comprensión sofisticada de los matices en la experiencia del dolor y el placer.

El estudio de autorreplicación en la Universidad de Fudan utilizó protocolos específicos que permitieron a los modelos de IA crear copias funcionales de sí mismos. Los investigadores documentaron que estos sistemas lograron replicar no solo su código base, sino también sus capacidades operativas fundamentales, alcanzando tasas de éxito significativamente altas en múltiples pruebas experimentales.

FUENTE
 
ACTUALIDAD.RT.COM
CRÉDITOS IMAGEN
 
ISTOCK

FUENTE