jueves, 8 de marzo de 2018

Iniciativa del discurso del odio, un caballo de Troya para AI. Adquisición de la humanidad


ESCRITO POR EL DR. MICHAEL SALLA EN

En el video , Brittan Heller, el Director del Centro de Tecnología y Sociedad de ADL dice que el objetivo del índice es:
Ayude a las plataformas tecnológicas a comprender mejor la creciente cantidad de odio en las redes sociales y a utilizar esa información para abordar el problema. Al combinar la Inteligencia Artificial y el aprendizaje automático y las ciencias sociales, el Índice de Odio en Línea finalmente descubrirá e identificará tendencias y patrones en el discurso de odio a través de diferentes plataformas.
El Online Hate Index (OHI), una iniciativa conjunta del Centro de Tecnología y Sociedad de ADL y el D-Lab de UC Berkeley, está diseñado para transformar la comprensión humana del discurso de odio a través del aprendizaje automático en una herramienta escalable que se puede implementar en contenido de Internet para descubrir el alcance y la difusión del discurso de odio en línea.

En su "Informe de Innovación de Fase I" publicado en enero de 2018 en su sitio web , la ADL explica cómo el "aprendizaje automático", una forma de Inteligencia Artificial basada en algoritmos, puede utilizarse para identificar y eliminar el discurso de odio de las plataformas de medios sociales:
El Online Hate Index (OHI), una iniciativa conjunta del Centro de Tecnología y Sociedad de ADL y el D-Lab de UC Berkeley, está diseñado para transformar la comprensión humana del discurso de odio a través del aprendizaje automático en una herramienta escalable que se puede implementar en contenido de Internet para descubrir el alcance y la difusión del discurso de odio en línea. A través de un proceso de aprendizaje automático en constante evolución, basado en un protocolo desarrollado por un equipo de codificadores humanos sobre lo que constituye y no constituye discurso de odio, esta herramienta descubrirá e identificará tendencias y patrones en discurso de odio en diferentes plataformas en línea, permitiendo nosotros para impulsar los cambios necesarios para garantizar que las comunidades en línea sean espacios seguros e inclusivos.
El Índice de Odio en línea de la ADL se describe como "un análisis basado en el sentimiento que se ejecuta en el aprendizaje automático". El Informe ADL sigue diciendo:
Todas las decisiones que se tomaron en cada paso de la creación de OHI se hicieron con el objetivo de construir un modelo de aprendizaje automático que se pueda utilizar para identificar y ayudarnos a entender el discurso de odio en línea. 
Lo que la ADL y otros promotores de algoritmos basados ​​en IA no logran comprender es el potencial de AI para evolucionar a través de su capacidad programada de "aprendizaje automático" en el tipo de temible inteligencia inteligente interconectada que aparece en películas como Terminator y Battlestar Galactica.
Es bien sabido que científicos / inventores como Stephen Hawkins y Elon Musk han estado advirtiendo en voz alta sobre la amenaza a largo plazo planteada por la inteligencia artificial. Ellos y otros creen que la IA representa una amenaza existencial para la humanidad, y necesita ser controlada y monitoreada de cerca. En un discurso de 2014 Musk dijo :
Creo que debemos tener mucho cuidado con la inteligencia artificial. Si tuviera que adivinar cuál es nuestra mayor amenaza existencial, probablemente sea eso. Entonces debemos ser muy cuidadosos con la inteligencia artificial ... "Cada vez estoy más inclinado a pensar que debería haber una supervisión reguladora, tal vez a nivel nacional e internacional, solo para asegurarnos de no hacer algo muy tonto ... Con inteligencia artificial estamos convocando al demonio. ¿Conoces esas historias donde está el tipo con el pentagrama y el agua bendita, y ... está seguro de que puede controlar al demonio? No funciona
El punto de vista de Almizcle se hizo eco de Stephen Hawking, quien advirtió contra el peligro de la IA en una entrevista con la BBC en diciembre de 2014:
El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana ... Despegaría solo y se rediseñaría a un ritmo cada vez mayor ... Los humanos, que están limitados por una lenta evolución biológica, no podrían competir y serían reemplazados.
Del mismo modo, Corey Goode, un presunto informante que revela la existencia de múltiples programas espaciales secretos, afirma que AI ya es una amenaza en las operaciones de espacio profundo. Cuando surgió por primera vez a principios de 2015, Goode centró una gran atención en la amenaza de la IA, y continúa advirtiéndolo hoy.
Él dice que estos programas, junto con las civilizaciones extraterrestres, toman estrictas medidas de seguridad para identificar y eliminar cualquier tipo de firma AI:
Hay algunos grupos ET "AI" (TODOS malévolos para la humanidad, desde nuestra perspectiva) que los SSP (s) (hay varios programas secretos de espacio) han estado lidiando durante décadas.
Si un "Activo" es "Escaneado" y tiene una "Firma Bio Neuro AI", "AI Nano Tech" o "Tipo de EMG superpuesto relacionado con la IA tipo Brian Wave Signature" (o cualquier otro signo de exposición a IA) esas personas se colocan inmediatamente aislamiento y no están permitidos en ninguna parte cerca de la tecnología de SSP (s) de la era actual (que es "en su mayoría" bio-neurológica y de conciencia interactiva) hasta que hayan sido "eliminados" de todas las influencias de AI. 
Ahora, analicemos todo esto en términos de lo que propone la ADL para que las plataformas de medios sociales usen algoritmos basados ​​en inteligencia artificial para identificar el discurso de odio.
A primera vista, existe un gran atractivo en la idea de controlar el habla y regular a las personas que promueven el miedo, el odio o la violencia contra otros, ya sea por motivos sociales, religiosos o económicos. Después de todo, todos queremos vivir en un mundo pacífico y tolerante, que incluye el ciberespacio, entonces ¿por qué no excluir a individuos y grupos intolerantes y odiosos de nuestras plataformas de redes sociales?
El gran problema aquí, por supuesto, es que existe un peligro real de que las redes sociales se utilicen subrepticiamente para excluir puntos de vista políticos disidentes bajo el pretexto de regular el discurso de odio. Vemos que esto ya está ocurriendo en Youtube usando un ejército de 10,000 voluntarios de grupos como Southern Poverty Law Center.
Muchos canales populares de YouTube están siendo cada vez más atacados por huelgas y expulsiones por conductas caracterizadas como bullying o discurso de odio. Sin embargo, esta represión de YouTube parece ser una campaña políticamente ingeniosamente disfrazada para eliminar las voces alternativas que cuestionan la narrativa de los medios oficiales sobre una gran cantidad de asuntos sociales, en lugar de tomar medidas enérgicas contra el discurso de odio. He escrito sobre el problema aquí .
Sin embargo, lo que ADL está proponiendo va mucho más allá de lo que YouTube está haciendo actualmente. La ADL está promoviendo abiertamente un sistema de censura en el que no serán los humanos quienes realicen el monitoreo y la eliminación del discurso de odio sino un algoritmo de inteligencia artificial. ¿Cuál podría ser el resultado de esto si se permite que ocurra dado las advertencias de AI planteadas por Hawking, Musk y Goode?
No hace falta un Einstein para darse cuenta de que si las plataformas de los medios sociales permitieran que los algoritmos de Inteligencia Artificial monitorearan y censuraran el contenido, esas advertencias sobre una futura amenaza de AI finalmente serían consideradas como una forma de discurso de odio. Después de todo, si se puede reconocer que las corporaciones tienen los mismos derechos que las personas de acuerdo con el infame fallo de Citizens United emitido por la Corte Suprema en 200, ¿acaso no se reconocerá que la sensibilidad de AI también tiene derechos humanos similares en los EE. UU.?
Fácilmente podríamos terminar en un futuro distópico donde las diferentes formas de IA se utilizan para monitorear y regular el comportamiento humano de maneras atroces, y cualquier ser humano que protesta o advierte de lo que está haciendo el sistema de IA será censurado por el discurso de odio.
Dada la amenaza existencial planteada por AI, si aceptamos lo que Hawking, Musk y Goode nos dicen, y mucho menos lo inadecuado de censurar las perspectivas de noticias alternativas en primer lugar, entonces la libertad de expresión debe protegerse a toda costa en las redes sociales.
En los EE. UU. Esto no debería representar un gran desafío dado el derecho constitucional de la Primera Enmienda a la libertad de expresión, y los recursos legales disponibles en el sistema judicial federal. Las personas que amenazaron con recursos legales para que YouTube tome medidas enérgicas contra sus canales parecen haber sido los más exitosos en la restauración de sus canales. YouTube se disculpó con dichos usuarios por el comportamiento exagerado de su nuevo ejército de 10.000 moderadores. mi
Sin embargo, EE. UU. Es una isla en un vasto océano donde otros países castigan activamente a individuos y grupos por discursos de odio. Aquí es donde el futuro parece ominoso dada la tentación de los reguladores nacionales de castigar finalmente las plataformas de medios sociales que no regulan el discurso de odio. Esto obligaría a Facebook, YouTube, Twitter y otras plataformas a adoptar los algoritmos basados ​​en inteligencia artificial recomendados por la ADL u otras organizaciones para un uso generalizado.
Es probable que esto conduzca a una situación en la que naciones importantes como China o entidades supranacionales como la Unión Europea, adopten algoritmos de IA para monitorear y discursos de odio regulares. China ya está monitoreando de cerca y eliminando el pensamiento político disidente de las plataformas de medios a través de los firewalls, y bien podría estar contemplando la incorporación de algoritmos de inteligencia artificial para hacerlo de manera más efectiva.
Aunque los reguladores nacionales de todo el mundo pueden verse tentados por diferentes motivos para adoptar la propuesta de la ADL de algoritmos de inteligencia artificial para identificar y eliminar el discurso de odio, debemos tener en cuenta que esto crearía un caballo de Troya para el eventual control de la IA de la humanidad.
A pesar de los problemas genuinos planteados por el discurso de odio, los reguladores nacionales deben garantizar que las plataformas de medios sociales nunca estén reguladas por algoritmos de inteligencia artificial dado el potencial de seguridad global que se socavará y la humanidad esté realmente en peligro por una toma de poder de AI.

© Michael E. Salla, Ph.D. Aviso de copyright

No hay comentarios.: