¿Escribirá ChatGPT la ciencia ficción del futuro?
ChatGPT lleva cerca de 100 días de espectacular proliferación y en ese tiempo ha demostrado que puede emularnos, sustituirnos e incluso suplantarnos en muchas actividades que hasta hace muy poco considerábamos genuinamente humanas.
El pasado 20 de febrero, la revista estadounidense de ciencia ficción y fantasía ClarkesWorld se vio forzada a cerrar su ventana online de recepción de relatos por primera vez en 17 años. Lo hizo, según explicaba su editor, Neil Clarke, porque llevaban semanas recibiendo “un aluvión” de textos generados por ChatGPT y no eran capaces de distinguir los auténticos, las creaciones humanas, de las emulaciones.
Como a ClarkesWorld solo le interesa “editar relatos que sean fruto del talento, la sensibilidad y la experiencia humana”, han optado por dejar de recibir solicitudes provisionalmente para no seguir el juego a “las prácticas fraudulentas de desaprensivos y trolls”.
En realidad, se trata de un modelo de fraude sencillo y potencialmente lucrativo. Basta con recurrir a la interfaz de usuario abierta de ChatGPT, darle instrucciones más o menos precisas, generar así un texto de 2.500 palabras y, en caso de que resulte seleccionado, agenciarse, sin más, los aproximadamente 300 dólares que paga la revista por cada texto que publica.
Un paso de gigante contra el fraude
Tal y como explica Amparo Alonso Betanzos, catedrática de Ciencias de la Computación de la Universidad de A Coruña y presidenta de la Asociación Española de Inteligencia Artificial, se trata de un ejemplo “casi anecdótico” de uso delictivo de una herramienta tecnológica, pero ilustra a la perfección “lo mucho que han progresado en los últimos años los programas que emulan el lenguaje natural”. Tanto, que incluso a los expertos les resulta difícil distinguir de manera fidedigna “una producción humana de una emulación informática”.
Si ChatGPT se ha puesto “de moda” es porque “ha acercado al gran público esos progresos tan llamativos y ha suscitado un debate, pertinente, pero tal vez un tanto sensacionalista, sobre los límites de la creatividad humana”. Después de todo, si un programa de inteligencia artificial “puede, como ha ocurrido en los últimos años, ganar un certamen internacional de poesía, imitar con precisión el estilo de William Shakespeare, escribir novelas o sonetos en un remedo exacto del castellano del Siglo de Oro o, en el ámbito de la música, ayudar a completar la sinfonía inconclusa de Beethoven, ¿dónde está el límite?”. Más aún, “¿qué espacio queda para nociones culturales como la de genialidad artística?”.
Si ChatGPT se ha puesto “de moda” es porque “ha acercado al gran público esos progresos tan llamativos y ha suscitado un debate, pertinente, pero tal vez un tanto sensacionalista, sobre los límites de la creatividad humana”.
Alonso opta por un enfoque pragmático: los seres humanos siguen practicando actividades como el ajedrez o el atletismo pese a que existen máquinas, como el automóvil, mucho más rápidas que cualquier atleta, “y programas como Alpha Zero que no solo derrotan a los mejores ajedrecistas, sino que producen jugadas insólitas”. De la misma manera, seguiremos utilizando la escritura “como herramienta de comunicación interpersonal o vehículo de autoexpresión por mucho que las máquinas sean capaces de usar el lenguaje con un nivel de precisión y competencia comparable al nuestro”. Otro tema es la detección de fraudes como el que ha padecido ClarkesWorld u otros potencialmente más nocivos “como en la producción de literatura científica, exámenes, oposiciones, certámenes literarios al máximo nivel…”.
Los riesgos de una tecnología fascinante
ChatGPT viene siendo la gran sensación tecnológica desde que OpenAI, la compañía de investigación en el ámbito de la inteligencia artificial que codirige Elon Musk, lo lanzó como interfaz de acceso libre el pasado mes de noviembre. En apenas una semana superaba ya el millón de usuarios. Hoy, una vez integrada en el motor de búsqueda Bing, rebasa los 100 millones.
Manali Mehrishi, redactora del boletín de emprendedores tecnológicos Open Growth, destaca que esta asombrosa herramienta “que responde preguntas, traduce de un idioma a otro, compone música, escribe relatos y poemas, realiza resúmenes o programa software” supone “una revolución” en la manera en como interactuamos con los chatbots. También como consecuencia de sus extraordinarias capacidades, implica una serie de amenazas. Las principales, en opinión Mehrishi, tienen que ver con “su incapacidad para verificar informaciones, con lo que puede convertirse en un formidable generador, difusor y amplificador de datos falsos”, o con la posibilidad de que sea utilizado en delitos como “la creación de phising automático en múltiples lenguajes”.
Desde el punto de vista de Prosegur Research, que ha elaborado un documento interno sobre los riesgos y oportunidades que presenta ChatGPT desde el punto de vista de la seguridad, hay que entender el desarrollo de inteligencia generativa lanzado por OpenAI en el contexto de una revolución tecnológica que “va a afectar a todas las facetas de nuestras vidas: educación, comunicación, trabajo o relaciones personales y entre personas y máquinas”.
Hay que entender el desarrollo de inteligencia generativa lanzado por OpenAI en el contexto de una revolución tecnológica que “va a afectar a todas las facetas de nuestras vidas.
El informe destaca que se trata, en primer lugar, de un evidente progreso llamado a mejorar aspectos fundamentales de la experiencia humana. Pero es su propio potencial el que genera riesgos como su potencial uso perverso en las luchas de poder geopolítico y geoeconómico (“ya en 2017 Vladimir Putin señaló que quien domine la IA dominará el mundo”, recuerda en Prosegur Research), en la difusión de discursos agresivos o de odio que potencien la ya creciente polarización social, en la generación de noticias falsas “para influir en la opinión pública o en procesos electorales”, en la creación de chatbots con objetivos delictivos como obtener información sensible o perpetrar estafas, en la programación de malware, en el phising o en la sustracción de datos.
Como elementos netamente positivos que se están evidenciando ya en el corto plazo, Prosegur Research destaca su papel en la automatización de tareas de seguridad rutinaria, la creación de chatbots más atractivos y “humanos”, la posibilidad de estructurar grandes volúmenes de información de manera mucho más intuitiva gracias al uso del lenguaje natural, la generación de hipótesis de seguridad prospectiva e inteligente o la detección de phishing y demás fraudes de base tecnológica, sin olvidar lo muy útil que resulta como herramienta de aprendizaje sobre cuestiones relacionadas con la seguridad y sus riesgos.
Para Alonso Betanzos, estamos, una vez más, “ante un magnífico recurso que abre un mundo de posibilidades, pero cuyo uso debemos acotar y regular para que no resulte empobrecedor ni delictivo”. Todo un reto.
-
Zero Trust: redefining security in the digital age
April 24, 2024
-
Demand grows for smart home protection
April 16, 2024