Revolución IA
La Inteligencia Artificial está llamada a protagonizar la próxima Revolución tecnológica
Inicio | Sobre Revolucionia | Temas | Para saber más | Contacto |
Usos maliciosos de la Inteligencia Artificial
Fernando P. 26/02/2018
Temas: Actualidad Divulgación Inteligencia Artificial y Sociedad
En Febrero de 2017 se celebraron unas
jornadas de trabajo
en la Universidad de Oxford que versaban sobre
los posibles riesgos de la Inteligencia Artificial, no en el sentido habitual de lo que puede llegar
a ser la Inteligencia Artificial sino limitándose a posibles usos maliciosos de técnicas que
ya están desarrolladas.
Las jornadas se desarrollaron durante dos días y en ellas varios especialistas de diversas instituciones
expusieron sus ideas. El resultado es un abultado
informe que se
ha publicado recientemente y en el que hay ciertas recomendaciones.
La Inteligencia Artificial hoy
Normalmente, estamos acostumbrados a predicciones un tanto apocalípticas sobre los peligros
de la Inteligencia Artificial en un futuro más o menos cercano. Este tipo de predicciones carecen
de base real porque asumen que de forma inminente aparecera lo que conocemos como
Inteligencia Artificial fuerte, que
es algo que se lleva esperando décadas y no está claro que llegue a ser del todo posible.
Lo cierto es que, a día de hoy, existen muchas técnicas en Inteligencia Artificial que se usan
para automatizar ciertas tareas y resolver con éxito problemas de que de otra forma no hubieran sido
nada fáciles de atacar. La eficiencia de la Inteligencia Artificial en la mayor parte de estas tareas
ha mejorado mucho en los últimos años y hoy en día es fácil que exceda a la eficiencia de un humano.
Así que, tampoco se puede decir que la Inteligencia Artificial sea algo hueco, aunque
el número de aplicaciones reales que tiene aún es pequeño.
En estas condiciones, sí que podemos preguntarnos sobre el potencial uso malicioso de las
técnicas de Inteligencia Artificial que ya son una realidad. Y eso es lo que han hecho en las
jornadas de trabajo
de la Universidad de Oxford.
En estas jornadas, un par de docenas de especialistas han revisado las técnicas y aplicaciones
reales de la Inteligencia Artificial a día de hoy y han expuesto potenciales escenarios de
usos maliciosos de esas técnicas.
En realidad, han tomado técnicas ya probadas y también han
considerado técnicas en fase de prueba que se cree que pueden estar listas en menos de 5 años,
que tampoco hay gran cosa. No se trata, en ningún caso de un ejercicio de ciencia ficción, es una aproximación bastante
realista.
La novedad es que, por una vez, podemos centrarnos en cosas concretas, ya conocidas, probadas o en
proceso de ser probadas. No se parte de hipótesis sin base real del tipo de Las máquinas serán
conscientes de su poder.
El objetivo de las jornadas de trabajo es identificar posibles escenarios de usos maliciosos
intencionados de las técnicas que básicamente conocemos hoy y, a partir de esos escenarios, elaborar
recomendaciones sobre posibles políticas que puedan ayudar a que estos escenarios no
terminen por convertir a la Inteligencia Artificial en algo necesariamente malvado.
El futuro de la Inteligencia Artificial
Una cuestión interesante que se menciona en el
informe final de las jornadas de trabajo es una
encuesta realizada a especialistas
en Inteligencia Artificial en la que se pretendía averiguar qué idea tienen estos especialistas
sobre el futuro de la misma.
Básicamente, la inmensa mayoría de especialistas piensa que la Inteligencia Artificial va a seguir
mejorando y que en cada tarea en la que encuentre aplicación terminará siendo mejor que los
humanos.
Pero también se menciona que este será un proceso largo, que no va a completarse antes de 50 años.
Ciertamente, el mundo será muy distinto dentro de 50 años.
En cualquier caso, esta encuesta va de opiniones de los especialistas. El objeto de las jornadas
de trabajo es algo mucho más cercano y relativo a cosas que ya tenemos funcionando a día de hoy.
Seguridad digital
Una de las áreas que se ha identificado como vulnerable a usos maliciosos de la Inteligencia Artificial
es la seguridad digital. Entendemos por seguridad digital el proceso de mantener a salvo de
accesos no autorizados programas y datos en computadores, así como evitar la intervención no
autorizada de comunicaciones en redes de computadores.
En un mundo cada vez más dependiente de los computadores y las redes que los conectan, la seguridad
digital es básica. La suplantación de identidad, sin ir más lejos, es un gran riesgo que existe
hoy en día derivado de la dependencia masiva de computadores y redes para hacer casi cualquier
cosa.
Riesgos para la seguridad digital han existido desde hace mucho tiempo y no necesariamente aparecen
de la mano de técnicas de Inteligencia Artificial. Sencillos programas de computador que no tienen nada
que ver con la Inteligencia Artificial, como los virus informáticos, provocan constantemente daños
enormes.
Los riesgos inherentes a un mundo digitalizado y completamente conectado no van a desaparecer
nunca. Pero sí que es cierto que algunas técnicas de Inteligencia Artificial tienen el potencial de
amplificar o facilitar usos maliciosos en un mundo digitalizado.
En este sentido, las técnicas de
Inteligencia Artificial vienen a ser herramientas complejas, que permiten ir más allá de lo que
se puede hacer con los programas de computador maliciosos al uso.
Por ejemplo, es conocida la capacidad que tienen algunas
redes neuronales artificiales para
generar
imágenes falsas que son
indistinguibles de imágenes verdaderas. La falsificación de imágenes no es algo nuevo, pero ahora
es más fácil que nunca y es muy difícil de detectar. Todo esto, usado de forma maliciosa, puede
crear daños enormes. Pero, en el fondo, es una consecuencia directa de la disponibilidad generalizada
de computadores muy potentes, así que la sociedad deberá aprender a adaptarse a los nuevos tiempos.
El
informe final de las jornadas de trabajo tiene una recopilación
exhaustiva de escenarios realistas en los que se podrían aplicar técnicas de Inteligencia Artificial
para atacar la seguridad de sistemas digitales.
Seguridad física
Mucho antes de que aparecieran riesgos de seguridad en el mundo digital, ya existían en el
mundo físico. Desde el inicio de los tiempos, todo avance de la técnica ha significado una posibilidad
de estar menos seguro en el mundo real. Y no iba a ser distinto con la Inteligencia Artificial.
En realidad, el ámbito más propenso a riesgos de seguridad que tengan que ver con la aplicación
de técnicas de Inteligencia Artificial es el mundo digital, por ser los computadores el
medio necesario en el que se implementan las técnicas de Inteligencia Artificial.
En el mundo físico, la Inteligencia Artificial puede ser un riesgo en cuanto esté implementada
en dispositivos con capacidad de interactuar con el medio. Lo que denominamos como
agentes inteligentes.
Lo cierto es que empiezan a ser muy accesibles dispositivos que están configurados como agentes
inteligentes y que están regidos por complejísimos programas de computador. Sin ir más lejos, ya se
comercializan vehículos con ciertas capacidades de conducción autónoma. Otro tipo de dispositivos que
están por todos sitios son los drones.
Naturalmente, una combinación de malas intenciones y técnicas de Inteligencia Artificial puede resultar
fácilmente en dispositivos como vehículos o drones que sean un auténtico peligro para
la seguridad de las personas y las cosas. En realidad, los riesgos existen igualmente sin
Inteligencia Artificial, pero esta puede amplificar los efectos.
Pero ocurre lo mismo que con la seguridad digital, todos estos problemas son consecuencia de una
disponibilidad de dispositivos que tienen una acumulación enorme de potencia de proceso de
información. Por mucha Inteligencia Artificial que tengamos, no vamos a poder convertir un
Cadillac de hace 50 años en una máquina peligrosa, pero hacerlo con algunos vehículos actuales
sí que es posible.
De nuevo, el
informe final de las jornadas de trabajo también tiene una recopilación
exhaustiva de escenarios realistas en los que se podrían aplicar técnicas de Inteligencia Artificial
para atacar la seguridad de las personas y las cosas en el mundo físico.
Seguridad política
Por último, en las jornadas de trabajo de Oxford se habló de los riesgos que la Inteligencia
Artificial podría crear sobre la seguridad política, entendida como la capacidad de los
ciudadanos de controlar su destino colectivo.
Igual que sucede con la seguridad física, la seguridad política ha estado bajo amenaza exactamente
desde el día siguiente a la aparición del primer humano. Y, naturalmente, todo avance de
la técnica ha sido usado inmediatamente como herramienta de control político.
Pensemos, sin ir más lejos, cómo han evolucionado la técnicas de propaganda, a la par del progreso en la tecnología de
comunicación.
En este sentido, la Inteligencia Artificial tiene capacidad de
clasificar cantidades inmensas
de información con coste muy reducido y, en un mundo digitalizado e interconectado, es inevitable que
se use algo de esto para controlar de forma sistemática la actividad de los ciudadanos.
En realidad, potentes técnicas matemáticas de análisis de datos o de clasificación existen desde hace
muchas décadas, pero es ahora, con la digitalización masiva y la disponibilidad de computadores
muy potentes cuando empieza a resultar muy sencillo ese control masivo de la ciudadanía.
Lo más interesante del asunto es que son los mismos ciudadanos los que están digitalizando
toda su inforrmación y poniéndola al alcance del poder político para que este sólo tenga que
hacerse con un computador potente y poner en marcha los algoritmos necesarios.
Es cierto que son técnicas de Inteligencia Artificial las que normalmente se van a usar para procesar y clasificar este
tipo de información, pero estas técnicas son antiguas en muchos casos y son viables ahora
gracias a la colaboración de los ciudadanos, que hacen el inmenso trabajo de digitalizar
la información. De nuevo, no se puede decir que la Inteligencia Artificial haya inventado nada.
De la misma forma que con los escenarios anteriores, en el
informe final de las jornadas de trabajo también tiene una recopilación
exhaustiva de escenarios realistas en los que se podrían aplicar técnicas de Inteligencia Artificial
para atacar la seguridad política.
Recomendaciones
El objetivo final de las jornadas de trabajo en Oxford era elaborar una serie de conclusiones y recomendaciones,
para la sociedad en general, con la idea de tener presentes los riesgos adicionales que pueden aparecer con la
introducción progresiva de técnicas de Inteligencia Artificial y poder actuar en consecuencia.
Las recomendaciones acordadas están en el
informe final de las jornadas de trabajo. Realmente, no son
recomendaciones precisas, porque el enemigo no es la Inteligencia Artificial. Como hemos visto
en los tres ámbitos considerados, la Inteligencia Artificial es un ingrediente más de la receta, no es
el enemigo a batir.
Las recomendaciones que se ofrecen van en la línea de pedir a los investigadores cuidado con lo que publican, regulaciones
a los políticos, códigos de buenas prácticas a la industria y adaptación de la sociedad en general.
Se trata de las mismas recomendaciones que podrían haber salido hace un siglo de un grupo de especialistas
que estudiara el potencial impacto del automóvil sobre la sociedad de la época. Naturalmente, nadie hubiera hecho
caso a esas recomendaciones y quizá gracias a eso nos movemos en automóviles y no en mulas.
El avance tecnológico siempre
tiene múltiples facetas y es difícil, o directamente imposible, quedarse sólo con las facetas deseadas.
Dicho esto, la recomendación de adaptación de la sociedad es razonable. En realidad no hace falta recomendarlo
porque la sociedad lleva siglos adaptándose al cambio constante de la técnica y con la Revolución de la
Inteligencia Artificial no va a ser distinto.
El avance tecnológico siempre ha resultado en facetas no deseadas para la sociedad. Pero
el conocimiento ni es benigno ni es malvado y no es fácil desligar el avance tecnológico de escenarios
no deseados. La sociedad debe adaptarse a las nuevas situaciones.
Para saber más:
Sitio web que se ha publicado con motivo de las jornadas de trabajo en Oxford. No tiene apenas contenido pero sí contiene el enlace para descargar el informe final de las jornadas.
Informe final en PDF de las jornadas de trabajo en Oxford. Es un informe muy extenso, con mucha información, bien documentado, accesible y que merece la pena ser leído aunque sólo sea para hacerse una idea del estado de las cosas en lo relativo a Inteligencia Artificial.
Inicio |
![]() ![]() |
En general, todo el contenido de este sitio web es original, salvo referencias o enlaces a otros sitios web y citas o reproducciones expresamente presentadas como tales. No está permitida la reproducción ni la copia del contenido de este sitio web sin el permiso expreso de la propiedad del mismo. Este sitio web no utiliza cookies ni ningún otro mecanismo para almacenar información en los navegadores de los visitantes ni para realizar seguimiento de los mismos. 2017,2018 Revolucionia.net |
Sobre Revolucionia | ||
Temas | ||
Para saber más | ||
Contacto |