La revolución de la inteligencia artificial no acaba con ChatGPT. Al revés, esta tecnología ha sido solo un prólogo de lo que está por venir. OpenAI ha presentado este martes el nuevo GPT-cuatro, un modelo de lenguaje natural que puede interpretar imágenes, explicarlas o debatir sobre lo que se ve en ellas. También es “más fiable, creativo y capaz de manejar instrucciones considerablemente más matizadas” con texto escrito que ChatGPT, ha explicado OpenAI, que de forma conjunta con Microsoft, da así otro golpe de efecto en la carrera de la inteligencia artificial cuando su competencia aún trata de imitar su modelo precedente.La primordial novedad de GPT-4 es su capacidad de extraer información de imágenes, texto, o formatos que mezclen imágenes y texto. “En una amplia gama de dominios, como documentos con texto y fotografías, diagramas o capturas de pantalla, GPT-4 muestra capacidades similares a cuando se introduce solo texto”, alardea OpenAI. Sin embargo, esta capacidad de analizar imágenes “prosigue siendo un avance de investigación y no está disponible públicamente”, avisa la compañía.Al contrario que ChatGPT, GPT-4 no va a estar abierto al público general. Para acceder a él va a ser preciso tener una suscripción a ChatGPT Plus (veinte dólares al mes más IVA) o bien contratar el acceso para desarrolladores, cuyo precio varía en función del número de consultas que se hagan al sistema. La nueva inteligencia artificial asimismo tiene un conocimiento limitado de la actualidad (solo tiene datos hasta septiembre de dos mil veintiuno) y no va a tener un aprendizaje automático a partir de sus conversaciones con los usuarios.OpenAI asegura que su nuevo producto asimismo puede argüir y construir alegatos mucho mejor que ChatGPT. Este se basa en una evolución de su precedente modelo conversacional, GPT-3, adaptado para interactuar y “chatear” de forma más fluida con las personas. La compañía lo denomina GPT-3.5. “Hace un año,…