Mientras la IA avanza más rápido que la regulación, el verdadero riesgo no es la tecnología, sino cómo decidimos usarla.
Realmente, deberíamos empezar a preocuparnos todos, no solo quienes
trabajan en esto o el Gobierno (que, por cierto,
parecen no hacer lo suficiente salvo lanzar cortinas de humo para distraernos).
Es cierto que tenemos iniciativas como la Ley de IA de la Unión Europea (AI
Act) (BOE - Reglamento de Inteligencia
Artificial), pero seamos sinceros, la tecnología corre a
una velocidad que la burocracia no puede alcanzar. Mientras ellos redactan
leyes, las empresas ya han lanzado tres versiones nuevas….
Incluso aquellos que no usan la tecnología deberían exigir que se tomen medidas adecuadas. Las empresas que lideran el sector están lucrándose, y posiblemente, poniéndonos en riesgo con un desarrollo sin control para ver quien gana la carrera. No creo que se estén parando a pensar lo suficiente.
El futuro del trabajo: ¿Sustitución o
colaboración?
No hablo solo del riesgo extremo de "exterminio", sino de algo
más inmediato: el entorno laboral. ¿Se han detenido a pensar cómo ayudar
a que no haya despidos masivos? Antes de correr, deberíamos centrar el debate
en el concepto de "Human-in-the-loop" (el humano en el bucle).
La IA no debería ser un sistema autónomo que toma decisiones por su cuenta, sino una herramienta supervisada que potencie nuestra capacidad, no que nos reemplace. Necesitamos generar puestos de trabajo donde la IA sea el apoyo, no el sustituto.
El caso Anthropic: Una espada de doble filo
La "nueva" IA de Anthropic ha sido capaz de detectar 2.000
vulnerabilidades que nadie más había visto hasta ahora. Es un hito, sí,
pero también una amenaza. De hecho, el Pentágono (Xataka- Anthropic resististe la presión del Pentágono) ya la tiene en su
lista negra porque representa un riesgo crítico para la seguridad.
Una de las vulnerabilidades más graves, la CVE-2026-4747, detalla
cómo la IA Claude Mythos encontró y explotó de forma autónoma una
vulnerabilidad de control total del servidor. Os dejo el enlace directo al CVE,
donde tiene una puntuación de criticidad de 8.8.
- Vector: CVSS:3.1/AV:N/AC:L/PR:L/UI:N/S:U/C:H/I:H/A:H
- Enlace al
NVD: CVE-2026-4747
Nota técnica: Para entender los vectores y cómo se calcula esta puntuación, yo suelo usar esta web: CVSS Calculator.
Recursos y Divulgación Responsable
Para las vulnerabilidades que afectan a la propia infraestructura de
Anthropic, ellos aplican su Responsible Disclosure Policy (Vulnerabilidades
Anthropic). Es el canal donde se coordinan con
investigadores externos para evitar desastres mayores.
¿Cómo rastrear esto? Si buscas un listado técnico de identificadores
CVE generados por estos modelos, lo ideal es filtrar la búsqueda en las bases
de datos como MITRE o NVD por "Anthropic" o "Claude
Mythos".
Visiones de futuro: ¿Star Trek o Skynet?
Me gusta imaginar que el mañana será como en Star Trek, si, prefiero esa
estabilidad a la de Star Wars y no porque me guste una película más que la otra,
no es una cuestión de gustos, trato de ser más objetivo. Curiosamente, hasta Elon
Musk, que también busca liderar el mercado, dice algo parecido. Pero que
quede claro yo No comparto sus objetivos, (La verdad sobre Elon Musk y OpenAI),
pero sí esa visión de que debemos evitar a toda costa el escenario de Terminator.
Ya que citamos la saga Terminator, tenemos que hablar sobre Skynet por si alguno aun no lo sabe o no a visto la saga, es la IA "diseñada para el control militar estadounidense, que cobra conciencia el 29 de agosto de 1997 y decide exterminar a la humanidad" ya hablamos en otro artículo, robots, y aunque me repito, del peligro real, que la empresas con su afán de ser los lideres del sector no saben ni lo que están desarrollando…
Para terminar, una reflexión:
Después de ver cómo una IA ya es capaz de reventar servidores de forma
autónoma y ver cómo el mercado solo piensa en el beneficio personal...
¿Crees que estamos a tiempo de frenar este desarrollo descontrolado o ya
hemos pasado el punto de no retorno?
Me gustaría saber qué opináis vosotros.
Gracias por llegar hasta aquí, os leo en los comentarios.
Comentarios
No hay comentarios: