Revolución IA

La Inteligencia Artificial está llamada a protagonizar la próxima Revolución tecnológica

Inicio Sobre Revolucionia Temas Para saber más Contacto

Usos maliciosos de la Inteligencia Artificial

Fernando P.    26/02/2018

Temas:  Actualidad    Divulgación    Inteligencia Artificial y Sociedad

En Febrero de 2017 se celebraron unas jornadas de trabajo en la Universidad de Oxford que versaban sobre los posibles riesgos de la Inteligencia Artificial, no en el sentido habitual de lo que puede llegar a ser la Inteligencia Artificial sino limitándose a posibles usos maliciosos de técnicas que ya están desarrolladas.

Las jornadas se desarrollaron durante dos días y en ellas varios especialistas de diversas instituciones expusieron sus ideas. El resultado es un abultado informe que se ha publicado recientemente y en el que hay ciertas recomendaciones.

La Inteligencia Artificial hoy
Normalmente, estamos acostumbrados a predicciones un tanto apocalípticas sobre los peligros de la Inteligencia Artificial en un futuro más o menos cercano. Este tipo de predicciones carecen de base real porque asumen que de forma inminente aparecera lo que conocemos como Inteligencia Artificial fuerte, que es algo que se lleva esperando décadas y no está claro que llegue a ser del todo posible.

Lo cierto es que, a día de hoy, existen muchas técnicas en Inteligencia Artificial que se usan para automatizar ciertas tareas y resolver con éxito problemas de que de otra forma no hubieran sido nada fáciles de atacar. La eficiencia de la Inteligencia Artificial en la mayor parte de estas tareas ha mejorado mucho en los últimos años y hoy en día es fácil que exceda a la eficiencia de un humano.

Así que, tampoco se puede decir que la Inteligencia Artificial sea algo hueco, aunque el número de aplicaciones reales que tiene aún es pequeño.

En estas condiciones, sí que podemos preguntarnos sobre el potencial uso malicioso de las técnicas de Inteligencia Artificial que ya son una realidad. Y eso es lo que han hecho en las jornadas de trabajo de la Universidad de Oxford.
Usos maliciosos de la Inteligencia Artificial
En estas jornadas, un par de docenas de especialistas han revisado las técnicas y aplicaciones reales de la Inteligencia Artificial a día de hoy y han expuesto potenciales escenarios de usos maliciosos de esas técnicas.

En realidad, han tomado técnicas ya probadas y también han considerado técnicas en fase de prueba que se cree que pueden estar listas en menos de 5 años, que tampoco hay gran cosa. No se trata, en ningún caso de un ejercicio de ciencia ficción, es una aproximación bastante realista.

La novedad es que, por una vez, podemos centrarnos en cosas concretas, ya conocidas, probadas o en proceso de ser probadas. No se parte de hipótesis sin base real del tipo de Las máquinas serán conscientes de su poder.

El objetivo de las jornadas de trabajo es identificar posibles escenarios de usos maliciosos intencionados de las técnicas que básicamente conocemos hoy y, a partir de esos escenarios, elaborar recomendaciones sobre posibles políticas que puedan ayudar a que estos escenarios no terminen por convertir a la Inteligencia Artificial en algo necesariamente malvado.

El futuro de la Inteligencia Artificial
Una cuestión interesante que se menciona en el informe final de las jornadas de trabajo es una encuesta realizada a especialistas en Inteligencia Artificial en la que se pretendía averiguar qué idea tienen estos especialistas sobre el futuro de la misma.

Básicamente, la inmensa mayoría de especialistas piensa que la Inteligencia Artificial va a seguir mejorando y que en cada tarea en la que encuentre aplicación terminará siendo mejor que los humanos.

Pero también se menciona que este será un proceso largo, que no va a completarse antes de 50 años. Ciertamente, el mundo será muy distinto dentro de 50 años.

En cualquier caso, esta encuesta va de opiniones de los especialistas. El objeto de las jornadas de trabajo es algo mucho más cercano y relativo a cosas que ya tenemos funcionando a día de hoy.

Seguridad digital
Una de las áreas que se ha identificado como vulnerable a usos maliciosos de la Inteligencia Artificial es la seguridad digital. Entendemos por seguridad digital el proceso de mantener a salvo de accesos no autorizados programas y datos en computadores, así como evitar la intervención no autorizada de comunicaciones en redes de computadores.

En un mundo cada vez más dependiente de los computadores y las redes que los conectan, la seguridad digital es básica. La suplantación de identidad, sin ir más lejos, es un gran riesgo que existe hoy en día derivado de la dependencia masiva de computadores y redes para hacer casi cualquier cosa.

Riesgos para la seguridad digital han existido desde hace mucho tiempo y no necesariamente aparecen de la mano de técnicas de Inteligencia Artificial. Sencillos programas de computador que no tienen nada que ver con la Inteligencia Artificial, como los virus informáticos, provocan constantemente daños enormes.

Los riesgos inherentes a un mundo digitalizado y completamente conectado no van a desaparecer nunca. Pero sí que es cierto que algunas técnicas de Inteligencia Artificial tienen el potencial de amplificar o facilitar usos maliciosos en un mundo digitalizado.

En este sentido, las técnicas de Inteligencia Artificial vienen a ser herramientas complejas, que permiten ir más allá de lo que se puede hacer con los programas de computador maliciosos al uso.

Por ejemplo, es conocida la capacidad que tienen algunas redes neuronales artificiales para generar imágenes falsas que son indistinguibles de imágenes verdaderas. La falsificación de imágenes no es algo nuevo, pero ahora es más fácil que nunca y es muy difícil de detectar. Todo esto, usado de forma maliciosa, puede crear daños enormes. Pero, en el fondo, es una consecuencia directa de la disponibilidad generalizada de computadores muy potentes, así que la sociedad deberá aprender a adaptarse a los nuevos tiempos.

El informe final de las jornadas de trabajo tiene una recopilación exhaustiva de escenarios realistas en los que se podrían aplicar técnicas de Inteligencia Artificial para atacar la seguridad de sistemas digitales.

Seguridad física
Mucho antes de que aparecieran riesgos de seguridad en el mundo digital, ya existían en el mundo físico. Desde el inicio de los tiempos, todo avance de la técnica ha significado una posibilidad de estar menos seguro en el mundo real. Y no iba a ser distinto con la Inteligencia Artificial.

En realidad, el ámbito más propenso a riesgos de seguridad que tengan que ver con la aplicación de técnicas de Inteligencia Artificial es el mundo digital, por ser los computadores el medio necesario en el que se implementan las técnicas de Inteligencia Artificial.

En el mundo físico, la Inteligencia Artificial puede ser un riesgo en cuanto esté implementada en dispositivos con capacidad de interactuar con el medio. Lo que denominamos como agentes inteligentes.

Lo cierto es que empiezan a ser muy accesibles dispositivos que están configurados como agentes inteligentes y que están regidos por complejísimos programas de computador. Sin ir más lejos, ya se comercializan vehículos con ciertas capacidades de conducción autónoma. Otro tipo de dispositivos que están por todos sitios son los drones.

Naturalmente, una combinación de malas intenciones y técnicas de Inteligencia Artificial puede resultar fácilmente en dispositivos como vehículos o drones que sean un auténtico peligro para la seguridad de las personas y las cosas. En realidad, los riesgos existen igualmente sin Inteligencia Artificial, pero esta puede amplificar los efectos.

Pero ocurre lo mismo que con la seguridad digital, todos estos problemas son consecuencia de una disponibilidad de dispositivos que tienen una acumulación enorme de potencia de proceso de información. Por mucha Inteligencia Artificial que tengamos, no vamos a poder convertir un Cadillac de hace 50 años en una máquina peligrosa, pero hacerlo con algunos vehículos actuales sí que es posible.

De nuevo, el informe final de las jornadas de trabajo también tiene una recopilación exhaustiva de escenarios realistas en los que se podrían aplicar técnicas de Inteligencia Artificial para atacar la seguridad de las personas y las cosas en el mundo físico.

Seguridad política
Por último, en las jornadas de trabajo de Oxford se habló de los riesgos que la Inteligencia Artificial podría crear sobre la seguridad política, entendida como la capacidad de los ciudadanos de controlar su destino colectivo.

Igual que sucede con la seguridad física, la seguridad política ha estado bajo amenaza exactamente desde el día siguiente a la aparición del primer humano. Y, naturalmente, todo avance de la técnica ha sido usado inmediatamente como herramienta de control político.

Pensemos, sin ir más lejos, cómo han evolucionado la técnicas de propaganda, a la par del progreso en la tecnología de comunicación.

En este sentido, la Inteligencia Artificial tiene capacidad de clasificar cantidades inmensas de información con coste muy reducido y, en un mundo digitalizado e interconectado, es inevitable que se use algo de esto para controlar de forma sistemática la actividad de los ciudadanos.

En realidad, potentes técnicas matemáticas de análisis de datos o de clasificación existen desde hace muchas décadas, pero es ahora, con la digitalización masiva y la disponibilidad de computadores muy potentes cuando empieza a resultar muy sencillo ese control masivo de la ciudadanía.

Lo más interesante del asunto es que son los mismos ciudadanos los que están digitalizando toda su inforrmación y poniéndola al alcance del poder político para que este sólo tenga que hacerse con un computador potente y poner en marcha los algoritmos necesarios.

Es cierto que son técnicas de Inteligencia Artificial las que normalmente se van a usar para procesar y clasificar este tipo de información, pero estas técnicas son antiguas en muchos casos y son viables ahora gracias a la colaboración de los ciudadanos, que hacen el inmenso trabajo de digitalizar la información. De nuevo, no se puede decir que la Inteligencia Artificial haya inventado nada.

De la misma forma que con los escenarios anteriores, en el informe final de las jornadas de trabajo también tiene una recopilación exhaustiva de escenarios realistas en los que se podrían aplicar técnicas de Inteligencia Artificial para atacar la seguridad política.

Recomendaciones
El objetivo final de las jornadas de trabajo en Oxford era elaborar una serie de conclusiones y recomendaciones, para la sociedad en general, con la idea de tener presentes los riesgos adicionales que pueden aparecer con la introducción progresiva de técnicas de Inteligencia Artificial y poder actuar en consecuencia.

Las recomendaciones acordadas están en el informe final de las jornadas de trabajo. Realmente, no son recomendaciones precisas, porque el enemigo no es la Inteligencia Artificial. Como hemos visto en los tres ámbitos considerados, la Inteligencia Artificial es un ingrediente más de la receta, no es el enemigo a batir.

Las recomendaciones que se ofrecen van en la línea de pedir a los investigadores cuidado con lo que publican, regulaciones a los políticos, códigos de buenas prácticas a la industria y adaptación de la sociedad en general.

Se trata de las mismas recomendaciones que podrían haber salido hace un siglo de un grupo de especialistas que estudiara el potencial impacto del automóvil sobre la sociedad de la época. Naturalmente, nadie hubiera hecho caso a esas recomendaciones y quizá gracias a eso nos movemos en automóviles y no en mulas.

El avance tecnológico siempre tiene múltiples facetas y es difícil, o directamente imposible, quedarse sólo con las facetas deseadas.

Dicho esto, la recomendación de adaptación de la sociedad es razonable. En realidad no hace falta recomendarlo porque la sociedad lleva siglos adaptándose al cambio constante de la técnica y con la Revolución de la Inteligencia Artificial no va a ser distinto.



El avance tecnológico siempre ha resultado en facetas no deseadas para la sociedad. Pero el conocimiento ni es benigno ni es malvado y no es fácil desligar el avance tecnológico de escenarios no deseados. La sociedad debe adaptarse a las nuevas situaciones.



Para saber más:

Sitio web que se ha publicado con motivo de las jornadas de trabajo en Oxford. No tiene apenas contenido pero sí contiene el enlace para descargar el informe final de las jornadas.

Informe final en PDF de las jornadas de trabajo en Oxford. Es un informe muy extenso, con mucha información, bien documentado, accesible y que merece la pena ser leído aunque sólo sea para hacerse una idea del estado de las cosas en lo relativo a Inteligencia Artificial.



 

Inicio Powered by NetBSD
 
HTML5
 
En general, todo el contenido de este sitio web es original, salvo referencias o enlaces a otros sitios web y citas o reproducciones expresamente presentadas como tales.

No está permitida la reproducción ni la copia del contenido de este sitio web sin el permiso expreso de la propiedad del mismo.

Este sitio web no utiliza cookies ni ningún otro mecanismo para almacenar información en los navegadores de los visitantes ni para realizar seguimiento de los mismos.

2017,2018 Revolucionia.net
Sobre Revolucionia
Temas
Para saber más
Contacto