La inteligencia artificial se ha convertido en un tema delicado. No ya porque algunos vean en ella una futura fuente de desempleo para muchos profesionales, o hablen incluso de la extinción humana. En un sentido más práctico, las estafas han crecido muchísimo por su culpa. Pero por si todo esto fuese poco, está también otro problema mucho menos conocido: las órdenes invisibles.
Es cierto que, desde un punto mediático, las órdenes o comandos invisibles (prompt injection se suelen llamar en inglés, "inyección rápida") apenas tienen repercusión. Pero cada vez son más los expertos que hablan sobre el tema. Básicamente, porque ven una amenaza importante en la seguridad de la inteligencia artificial. ¿Qué son y cómo pueden realmente afectar a los usuarios?
Las órdenes invisibles, un peligro para la IA
Como aseguran en el portal especializado Axios, las órdenes invisibles de esta "inyecciones" explotan de alguna forma la naturaleza probabilística y estocástica de los modelos de lenguaje. Dicho así, puede sonar a chino. Pero si decimos que lo que los atacantes desean es “secuestrar” los sistemas de IA, la cosa cambia. ¿Y cómo lo hacen? Pues introduciendo instrucciones maliciosas e indetectables.
Por ejemplo, escribiendo un texto blanco sobre fondo blanco e introduciéndolo en los datos que un modelo de inteligencia artificial procesa. Con algo tan sencillo, se puede lograr que la IA revele información confidencial, o lo que es aún más inquietante: que lleve a cabo acciones no autorizadas. Así, cualquier IA puede volverse un peligro para la privacidad y seguridad de los usuarios.
Pero como suele suceder en casi todos estos casos, los hackers parecen ir siempre un paso por delante. Lo cual no quita para que, en efecto, gente como OpenAI ya esté entrenando y ajustando sus modelos para resistirse a este tipo de trucos. Pero la teoría es mucho más fácil que ponerlo en práctica.
Los expertos lo reconocen sin tapujos: enfrentarse a estas órdenes invisibles de las inyecciones rápidas es todo un desafío. Por mucho que se estén llevando a cabo reglas codificadas para bloquear acciones maliciosas, o también técnicas para marcar datos externos. Con todo, el problema sigue, y no hay mucho optimismo en que vaya a desaparecer así como así de la noche a la mañana, precisamente.
Un riesgo que cada vez es mayor, dicen los expertos
En estos momentos, de utilizan más de 2.000 herramientas de inteligencia artificial. Si se piensa, es una auténtica barbaridad. Pero ahí no se detendrá el asunto. Según los expertos, su mercado crecerá hasta los 1,3 billones (con “b”) de aquí a 2032, más o menos. La traducción es muy sencilla: la IA va a estar en todas partes, desde apps cotidianas hasta herramientas profesionales.
Por lo tanto, si estos sistemas de IA no son seguros, va a existir un gran problema. Eso por no hablar de qué sucedería en el caso de que se alcanzase la tan temida inteligencia artificial general. En ese caso, las consecuencias podrían ser todavía más difíciles de prever.