El aclamado director advierte sobre los riesgos de la IA, haciendo especial hincapié en su potencial militarización y en el impacto que esto podría tener en el contexto bélico

En una reciente entrevista con CTV News, el galardonado cineasta canadiense James Cameron, conocido por sus películas aclamadas como “Titanic” y “Avatar”, y también por dirigir y co-escribir la película de ciencia ficción de 1984 “Terminator” protagonizada por Arnold Schwarzenegger, expresó sus preocupaciones sobre los riesgos que la inteligencia artificial (IA) podría representar para la humanidad.

Cameron, quien ha sido un pionero en el uso de la tecnología en sus películas, ha estado observando de cerca el rápido avance de la IA. En su entrevista, compartió sus inquietudes con las de los expertos, quienes han estado advirtiendo sobre la necesidad de regular la tecnología antes de que represente una amenaza mayor para la humanidad.

“Se los advertí en 1984, y ustedes no escucharon”, dijo el cineasta, haciendo referencia a su película “Terminator”, que retrata un futuro distópico en el que las máquinas se rebelan contra la humanidad. La película, que en su momento parecía pura ciencia ficción, ahora parece profética a medida que la inteligencia artificial se convierte en una parte cada vez más integral de nuestras vidas.

El impacto de la IA no se limita a la esfera de la ciencia y la tecnología; también está afectando a la industria del cine. En Hollywood, las huelgas de escritores y actores han puesto de manifiesto la creciente tensión en torno a su uso. Los sindicatos argumentan que los artistas necesitan protecciones contra el uso de sus imágenes y arte generado la inteligencia artificial sin su consentimiento, y los escritores sostienen que los estudios no deberían poder reemplazarlos con IA para escribir guiones.

“Esperemos 20 años, y si una IA gana un Oscar al Mejor Guión, creo que debemos tomarlo en serio”, expresó el director cuando se le cuestionó sobre si consideraría la posibilidad de aceptar un guión producido por inteligencia artificial.

Cameron, sin embargo, expresó a Television Network en Canadá su escepticismo sobre la capacidad de la IA para reemplazar a los escritores. Aunque reconoció que la tecnología está avanzando rápidamente, sostuvo que la calidad de una historia no depende de quién la escribió, sino de si es una buena historia. En su opinión, una inteligencia artificial no puede capturar la esencia de la experiencia humana de la misma manera que un escritor real.

Las preocupaciones de James Cameron: riesgos de la IA en la carrera armamentista y la importancia de una regulación responsable. REUTERS/Toby Melville
Las preocupaciones de James Cameron: riesgos de la IA en la carrera armamentista y la importancia de una regulación responsable. REUTERS/Toby Melville

Los cineastas se benefician de la IA para crear guiones más sofisticados, generar imágenes impresionantes y añadir efectos especiales impactantes. Además, esta herramienta optimiza las campañas de marketing y realiza un seguimiento preciso de la interacción de la audiencia con las películas. Asimismo, esta tecnología juega un papel crucial en la restauración de películas antiguas al eliminar de forma automática arañazos, suciedad, deformaciones y parpadeos de las copias.

La IA y la guerra

Cameron también expresó su preocupación por la “militarización de la IA” durante la entrevista con la televisión canadiense, temiendo que esto pueda desencadenar una carrera armamentista similar a la de las armas nucleares. Según el director de Terminator, es importante evaluar quién está desarrollando la tecnología y con qué propósito, ya sea para obtener ganancias, lo que él llama “enseñar codicia”, o para la defensa, lo que él denomina “enseñar paranoia”.

Las palabras de James Cameron advierten sobre los peligros de una carrera armamentista en inteligencia artificial. Al igual que ocurrió con las armas nucleares, esta tecnología podría escapar al control humano si no se establecen salvaguardas éticas.

Un escenario posible sería algoritmos tomando decisiones letales a velocidad inhumana. Para evitar esa espiral, se necesita un acuerdo global que regule el desarrollo de IA. Queda en manos de líderes mundiales y científicos forjar consensos para que la IA se desarrolle de forma segura y beneficiosa.