Más caro y cuatro veces más potente que su predecesor
Tras el
reciente lanzamiento de ChatGPT con GPT-4, OpenAI trabaja en una modalidad que
cuadruplicará la potencia de su predecesora, pudiendo trabajar hasta con 24.000
palabras: GPT-4 32K.
OpenAI ya trabaja en un modelo superior a GPT-4, el GTP4 32K. Si bien el modelo actual puede trabajar con 6000 palabras, el nuevo GTP4-32K, chatbot en esteroides respecto a su predecesor, lo podría hacer con hasta 24000.
GPT-4 tiene un 82% menos de probabilidades de responder a
solicitudes de contenido no permitido y un 40 % más de probabilidades de
producir respuestas basadas en hechos en comparación con GPT-3.5”, según las
evaluaciones internas realizadas por OpenAI y, la nueva versión promete mucho
más.
La propia directora de tecnología de OpenAI admite que ChatGPT
tiene que ser regulado por las autoridades
¿Aprueba ChatGPT el test de Turing?
La principal distinción entre ambas versiones radicará en la
cantidad de tokens que usan para procesar los datos.
Es importante recordar que los modelos GPT organizan, miden y
procesan información mediante unidades básicas conocidas como tokens, los
cuales son secuencias de caracteres. En el idioma inglés, se estima que un
token equivale a 4 caracteres.
En este sentido, lo fundamental radica en el contexto capaz de
entender el chatbot. Por ejemplo, será factible ingresar el código completo de
una aplicación en una plataforma basada en este modelo, permitiendo a la IA
identificar errores y sugerir mejoras. También será posible analizar documentos
extensos para crear un resumen detallado con la herramienta inteligente.
Mayor
potencia a cambio de más precio
Como era de esperar, el precio de GPT-4 32K será más elevado que
en la versión básica. En términos generales, el costo se duplicará en
comparación con la versión anterior.
Si consideramos que el precio actual de ChatGPT con GPT-4 por
cada 1,000 tokens es de unos 0.06 dólares, el uso de un prompt que utilice toda
la capacidad de GPT-4 32K tendría un precio cercano a los 2 dólares por
indicación de similares características, un precio que puede resultar muy
elevado para el uso particular.
Sin embargo, este puede ser un precio aceptable para muchas empresas, plataformas, desarrolladores y usuarios profesionales que buscan maximizar su rentabilidad en función de los recursos y tiempo invertidos en sus proyectos.
Además, estos nuevos ingresos, de tornarse en ganancias reales para Open AI, podrían significar un mejor y mayor desarrollo de la propia tecnología. En este sentido, recordamos que la desarrolladora se mueve en un escenario en que le cuesta ingentes cantidades de dinero mantener funcionando el chatbot y en el que se enfrenta a retos legales en Europa.
No hay comentarios:
Publicar un comentario