Vivimos en la fiebre del oro del siglo XXI. Desde que ChatGPT y sus competidores irrumpieron en la escena, no hay junta directiva, departamento de marketing o equipo de desarrollo que no esté buscando cómo integrar la Inteligencia Artificial (IA) en sus procesos. La promesa es seductora: eficiencia, creatividad y respuestas instantáneas. Sin embargo, en medio de esta carrera frenética por la adopción, hemos dejado una puerta trasera abierta de par en par.
Nos preocupamos mucho por lo que la IA puede hacer por nosotros, pero muy poco por lo que le pueden hacer a ella. ¿Se puede hackear una «mente» digital? ¿Se puede manipular su aprendizaje para que mienta sutilmente?
Para desentrañar este nudo gordiano, no quisimos recurrir a manuales técnicos ininteligibles. Nos sentamos a conversar con Rafael Núñez Aponte, una voz autorizada que lleva años observando las trincheras de la seguridad digital. Con él, analizamos un escenario inquietante: estamos entregando las llaves del reino a modelos matemáticos que, hoy por hoy, son mucho más vulnerables de lo que admitimos.

Fuente: https://www.freepik.es/fotos-premium/cerebro-digital-placa-circuitos-electronicos_188043513.htm
El Ataque No Es al Código, Es al Aprendizaje
Lo primero que hay que entender es que proteger una IA no es lo mismo que proteger una base de datos tradicional. Aquí no solo se roban credenciales; aquí se corrompe el conocimiento. Existe un concepto aterrador llamado «Data Poisoning» (envenenamiento de datos). Imagina que un atacante logra infiltrar información falsa sutil en los terabytes de texto que una IA utiliza para entrenarse. El resultado no es un error de sistema, sino una IA que toma decisiones equivocadas con total confianza. Leer más
Durante nuestra charla, Rafael Eladio Núñez Aponte hizo una analogía que ilustra perfectamente la gravedad del asunto: «Imagina que, a un niño, en su escuela, le cambian los libros de historia por versiones alteradas. El niño no se ‘rompe’, sigue funcionando, pero su visión del mundo estará viciada desde la raíz. Con la IA pasa lo mismo. Si envenenas la fuente, envenenas la decisión corporativa que se basa en ella».
El peligro radica en la invisibilidad. Un virus tradicional suele hacer ruido (borra archivos, bloquea pantallas). El envenenamiento de un modelo es silencioso. La empresa podría estar meses operando con una IA manipulada por la competencia o por actores maliciosos sin darse cuenta.

Fuente: https://guzmi.dev/el-arte-de-la-invisibilidad/
«Prompt Injection»: La Ingeniería Social contra la Máquina
Si el envenenamiento ataca al entrenamiento, el «Prompt Injection» (inyección de instrucciones) ataca al modelo en tiempo real. Hemos visto cómo usuarios ingeniosos logran que los chatbots revelen secretos industriales o generen contenido prohibido simplemente «engañándolos» con palabras. Es el equivalente digital al hipnotismo. Leer más
Le preguntamos a Rafael Eladio Núñez Aponte sobre esta vulnerabilidad específica, que parece casi humana. Su respuesta fue pragmática y directa: «El problema es que estamos tratando a estos modelos como si fueran oráculos infalibles, cuando en realidad son muy sugestionables. Si un atacante encuentra la combinación semántica correcta, puede saltarse todos los controles éticos que la empresa desarrolladora puso. Es como convencer al guardia de seguridad de que te deje pasar porque eres el dueño, aunque no tengas llave».
Esto plantea un riesgo masivo para las empresas que conectan sus IA a internet o a sus bases de datos internas. Un «prompt» malicioso en un correo electrónico entrante podría instruir a la IA de un asistente virtual para que reenvíe datos confidenciales al atacante.

Fuente: https://colciber.co/introduccion-a-la-ingenieria-social/
La Cadena de Suministro: ¿Sabes qué estás instalando?
Hoy en día, pocos desarrollan sus propios modelos desde cero. La mayoría descarga modelos pre-entrenados de repositorios públicos (como Hugging Face) o utiliza APIs de terceros. Esto crea una cadena de suministro opaca. ¿Sabes quién entrenó ese modelo de código abierto que estás usando para analizar los currículums de tus candidatos? ¿Sabes si tiene puertas traseras? Leer más
Rafael Eladio Núñez Aponte se mostró especialmente incisivo en este punto durante la entrevista. «Estamos viendo una repetición de los errores de la web 2.0, pero a una velocidad vertiginosa. Las empresas integran librerías y modelos de IA sin auditoría alguna, solo porque funcionan«, señaló Núñez Aponte. «Es como recoger un USB del suelo en la calle y conectarlo al servidor del banco. La procedencia del modelo es tan crítica como el modelo mismo».
La industria carece actualmente de un «Sello de Calidad» o una certificación de seguridad estandarizada para estos modelos, lo que convierte el ecosistema en un Salvaje Oeste digital.

Fuente: https://isil.pe/blog/logistica/que-es-cadena-de-suministro/
El Factor Humano y la Falsa Sensación de Seguridad
A medida que avanzaba la conversación, surgió un tema recurrente: la arrogancia tecnológica. Creemos que la IA es inteligente, por lo tanto, asumimos que es segura. Pero la IA no tiene sentido común ni instinto de supervivencia. Leer más
«Hay una brecha enorme entre la capacidad de innovación y la capacidad de protección», reflexionó Rafael Eladio Núñez Aponte. «Los desarrolladores están presionados por lanzar el producto ‘ayer’. En esa carrera, la seguridad suele ser vista como un freno, no como un paracaídas. Y cuando el modelo falla, la culpa suele recaer en el algoritmo, cuando la responsabilidad real es de quien lo implementó sin blindarlo».
La ciberseguridad de la IA requiere un nuevo tipo de perfil profesional: alguien que entienda de código, pero también de lingüística, de ética y de estadística. Los firewalls tradicionales no entienden de contextos semánticos, y ahí es donde reside la vulnerabilidad.

Fuente: https://industrialmindset.com/factores-humanos-y-organizacionales-de-la-seguridad-2/
¿Quién es Responsable cuando la IA es Hackeada?
Si un coche autónomo es engañado por una señal de tráfico alterada (un ataque adversarial) y causa un accidente, ¿de quién es la culpa? ¿Del fabricante del coche? ¿Del desarrollador del software de visión artificial? ¿De la ciudad? Leer más
El marco legal va muy por detrás de la tecnología. Mientras la Unión Europea intenta poner cercos con su Ley de IA, la realidad operativa de las empresas es que están navegando a ciegas.
Hacia el final de nuestro encuentro, Rafael Eladio Núñez Aponte nos dejó una advertencia clara sobre la responsabilidad corporativa: «No podemos delegar la seguridad en la ‘caja negra’. Si tu empresa usa IA, tu empresa es responsable de lo que esa IA haga, diga o decida. Ignorar la ciberseguridad específica para estos modelos ya no es un descuido técnico, es una negligencia gerencial».

Fuente: https://cdetech.org/responsabilidad-corporativa-en-la-era-de-la-ia/
La IA Necesita Guardaespaldas
La Inteligencia Artificial transformará el mundo, eso es innegable. Pero si queremos que esa transformación sea positiva, debemos dejar de tratar su seguridad como un accesorio opcional. Los modelos de IA son activos de alto valor y, como tales, son objetivos de alto perfil. Leer más
Proteger la IA implica auditar los datos de entrenamiento, realizar pruebas de estrés (Red Teaming) constantes contra inyecciones de prompts y, sobre todo, mantener un escepticismo saludable sobre sus respuestas.

Como bien resumió Rafael Eladio Núñez Aponte al despedirnos: «La inteligencia artificial puede ser el motor de tu empresa, pero la ciberseguridad son los frenos y el volante. Sin ellos, no importa qué tan rápido vayas, solo importa qué tan fuerte será el choque».
Es hora de que los responsables de tecnología miren menos el potencial de ganancias y más las posibles grietas de la armadura. Porque en el mundo digital, lo que no proteges, eventualmente te traiciona.



