Finanzas e innovación

innovadores

Lo que hay detrás de ChatGPT

VALÈNCIA. Advierte el emprendedor Carlos Pérez que hablar de ChatGPT es como hablar de yogures y citar solamente, pongamos por caso, a la marca Danone. Es decir que, con mayor o menos acierto, interfaces de programación de aplicaciones (Application Programming Interfaces, API, por sus siglas en inglés) como la de ChatGPT hay muchas en el mercado, tanto privadas como open source.

Que todas ellas hayan sido posibles se debe fundamentalmente a dos cosas. Primero, la ingente cantidad de información y datos que los usuarios llevamos años vertiendo en internet, y, segundo, el desarrollo de un determinado modelo de lenguaje que se conoce como LLM (Large Language Models), esto es, grandes modelos de lenguaje basados en redes neuronales artificiales capaces de leer, traducir y resumir textos, pudiendo así crear frases y predecir palabras con la misma o mayor habilidad que un humano.

Para hacerlo más visible, la comparación que pone Miguel Ángel Román, cofundador del Instituto de Inteligencia Artificial (IIA), con sede en Alicante, es el de las previsiones meteorológicas, posibles gracias a la utilización de insumos de ciencia y tecnología que recogen millones de datos a tiempo real para luego procesarlos y realizar los pronósticos. «Con los modelos LLM sucede algo parecido solo que, en lugar de predecir el tiempo, han sido entrenados para predecir cuáles son las palabras que siguen a un texto dado».

Así de sencillo y así de complejo porque «esto, cuando se hace a escala, tiene un potencial tremendo, siendo capaz de realizar multitud de tareas relacionadas con el manejo del lenguaje», afirma Román. Lo complicado y lo más costoso, desde el punto de vista económico, es entrenar a esa inteligencia artificial (IA) que hay detrás para reconocer patrones de palabras, aprender sobre el lenguaje y su utilización natural y contextual.

Recibe toda la actualidad
Alicante Plaza

Recibe toda la actualidad de Alicante Plaza en tu correo