La inteligencia artificial progresa a pasos agigantados, aunque aún tiene mucho que mejorar. No obstante, los actuales algoritmos que hay detrás de esta tecnología aprenden bastante rápido y tienen cualidades casi extraordinarias. Sin duda en muchos aspectos han superado a la inteligencia humana, aunque no en otros.
De hecho, se puede engañar a la inteligencia artificial, e incluso alimentar a esos algoritmos con información que no sea certera para que no tengan la efectividad esperada. Es decir, se podría incluso enseñar mal a la IA para manipularla, igual que se puede manipular a una persona para que crea algo que no es cierto.
Inteligencia artificial y engaños
Comprendiendo qué es la IA

La inteligencia artificial se puede implementar mediante redes neuronales artificiales por software o hardware. Sus aplicaciones son muchas, desde sistemas informáticos capaces de aprender o tomar sus propias decisiones como los humanos, hasta la robótica.
Pero si nos vamos a lo más «profundo», lo que hay tras estos sistemas son algoritmos matemáticos que son los que aprenden y toman esas decisiones. Estos algoritmos son alimentados por gran cantidad de información de la que aprenden. Como también lo haría un niño.
Por ejemplo, para los algoritmos de reconocimiento facial se están usando multitud de caras de las que nutrirse de las fotos que se cuelgan en redes sociales como Facebook o en apps como FaceApp. Con esto quiero decir que se pueden alimentar de información válida o información inválida, por tanto, aprenderían cosas erróneas…
Cómo engañar a la inteligencia artificial con muestras 3D
Esos algoritmos o sistemas de inteligencia artificial basados en redes neuronales tienen grandes resultados para muchas tareas, pero también resultan erráticos para otras. Por ponerte un ejemplo, una inteligencia artificial de Microsoft debía determinar qué pacientes deben acudir a un hospital según su edad e historial clínico para no saturar el sistema sanitario. Esta IA descartaba a las personas de muy avanzada edad. El motivo es que no tenía datos suficientes de personas de más de 100 años al haber pocas, en cambio son personas especialmente vulnerables.
Además, si las muestras son conflictivas podría generar confusión como puedes observar en el vídeo que he adjuntado.
Por ejemplo, el sistema de reconocimiento de imágenes basado en inteligencia artificial InceptionV3 de Google confunde un gato con guacamole, o una tortuga impresa en 3D con un arma. Imagina lo que podría suponer eso en un robot hecho para reducir a todo aquel que lleve un arma. ¿Sería capaz de reducir a alguien con una tortuga? O imagina otro peligro, el de un sistema de IA de un coche autónomo que no es capaz de identificar a un peatón y lo atropella.
De hecho, hay multitud de imágenes adversariales que se diseñan especialmente para engañar a la inteligencia artificial y hacer que los sistemas IA se vuelvan locos como si una persona estuviese viendo alucinaciones. Ante los sistemas de reconocimiento de imágenes se podría incluso hacer que seas invisible ante la IA.
Ya se habla de ataques adversariales en el ámbito de la IA, lo que podría ser el futuro de los ciberataques para tratar de confundir a la inteligencia artificial.
Algoritmo Houdini: engaño de la inteligencia artificial

Se puede hacer que una inteligencia artificial pueda ver o escuchar cosas que realmente no han sucedido. Es decir, trolearla o engañarla de alguna manera, volver loco a este sistema inteligente.
Existe un algoritmo denominado Houdini que inserta algunos rasgos inapreciables para el oído del ser humano o en imágenes que no podemos apreciar, pero que una máquina de reconocimiento de imagen o voz sí que los detecta.
Esos cambios hacen que la interpretación de la máquina sea totalmente diferente como se ha podido comprobar en el apartado anterior. Esa técnica se puede usar para múltiples cosas, como testar los algoritmos de reconocimiento de peatones de los coches autónomos y evitar accidentes al no diferenciarlos…
IA ante un mago…

También puedes hacerte una pregunta y es si un mago podría engañar a una inteligencia artificial con sus trucos. Sin duda al ser humano sí que logra engañarlo, pero en una red neuronal podría ser algo diferente.
Investigadores españoles han entrenado a una IA para que pueda seguir los movimientos de un mago profesional. De esa forma, podrían comprobar si los trucos pueden engañar a la máquina o no. Y ver las diferencias con el ser humano.
De hecho, el experimento va más allá y podría ayudar a entender mejor cuáles son nuestros propios sesgos para que un mago nos pueda engañar o el porqué.
El experimento estaba encabezado por el equipo de Alex Gómez Marín, del Instituto de Neurociencias de Alicante (CSIC-UMH). Ha sido pionero en combinar magia con neurociencia e IA. Y la inteligencia artificial entrenada ha sido la red neuronal DeepLabCut.
El resultado final fue que en algunos trucos el humano era engañado y la IA no, y viceversa en otros casos. En cambio, en los trucos donde la IA podía acertar demostró ser especialmente buena en cuanto a atención siguiendo los pasos del mago…