Noticias

OpenAI lanza GPT-4, una IA multimodal con soporte de imágenes

OpenAI GPT-4
Open AI GPT-4

ChatGPT es todo lo que se puede hablar últimamente. Impulsado por el modelo de lenguaje GPT 3 y GPT 3.5 (para suscriptores de Plus), el chatbot de IA ha crecido a pasos agigantados en lo que puede hacer. Sin embargo, mucha gente ha estado esperando con gran expectación un modelo actualizado que supere los límites. Bueno, OpenAI ahora lo ha hecho realidad con GPT-4, su último LLM multimodal que viene repleto de mejoras y tecnología sin precedentes en IA. ¡Mira todos los detalles a continuación!

GPT-4 es multimodal y supera a 3.5

El modelo GPT-4 recientemente anunciado por OpenAI es un gran avance en inteligencia artificial. Lo más importante a mencionar es que GPT-4 es un gran modelo multimodal. Esto significa que será capaz de aceptar entradas de imagen y texto brindándole una comprensión más profunda. OpenAI menciona que, aunque el nuevo modelo es menos capaz que los humanos en muchos escenarios del mundo real, aún puede exhibir un rendimiento a nivel humano en varios niveles.

GPT-4 también se considera un modelo más confiable, creativo y eficiente que su predecesor GPT-3.5. Por ejemplo: el nuevo modelo podría aprobar un examen de grado simulado con una puntuación en torno al 10 % superior de los examinados (~90 percentil), mientras que GPT 3,5 se situó en el 10 % inferior. GPT-4 también es capaz de manejar instrucciones más matizadas que el modelo 3.5. OpenAI comparó ambos modelos en una variedad de puntos de referencia y exámenes, y GPT-4 quedó en primer lugar. Echa un vistazo a todas las cosas geniales que ChatGPT puede hacer aquí.

GPT-4 y entradas visuales

Como se mencionó anteriormente, el nuevo modelo puede aceptar promociones tanto de texto como de imágenes. En comparación con una entrada de texto restringida, A GPT-4 le irá mucho mejor en la comprensión de las entradas que contienen texto e imágenes. Las entradas visuales permanecen consistentes en varios documentos, incluidos texto y fotos, diagramas e incluso capturas de pantalla.

chatgpt multimodal

OpenAI mostró lo mismo alimentando GPT-4 con una imagen y un mensaje de texto pidiéndole que describiera qué tiene de divertido la imagen. Como se vio arriba, el modelo pudo leer con éxito una imagen aleatoria de Reddit y responder al mensaje solicitado por el usuario. Entonces fue capaz de identificar el elemento humorístico. Sin embargo, las entradas de imágenes de GPT-4 aún no están disponibles públicamente y son una vista previa de la investigación.

Propenso a la alucinación y datos limitados

Si bien GPT-4 es un salto considerable con respecto a su iteración anterior, aún existen algunos problemas. Para empezar, OpenAI menciona que todavía es no es del todo fiable y es propenso a las alucinaciones. Esto significa que la IA cometerá errores de razonamiento y sus resultados deben tomarse con mucho cuidado y con intervención humana. también podría ser con confianza equivocado en sus predicciones, lo que puede conducir a errores. Sin embargo, GPT-4 reduce las alucinaciones en comparación con los modelos anteriores. Para ser específico, el el nuevo modelo obtiene un 40 % más de puntaje que GPT-3.5 en las evaluaciones de la empresa.

Otro inconveniente que muchos esperaban que se solucionara con GPT-4 es el conjunto de datos limitado. Desafortunadamente, GPT-4 aún carece de conocimiento de los hechos ocurridos después de septiembre de 2021, lo cual es decepcionante. Tampoco aprende de su experiencia, lo que se traduce en los errores de razonamiento mencionados anteriormente. Además, GPT-4 puede fallar en problemas difíciles, al igual que los humanos, incluidas las vulnerabilidades de seguridad. Pero no hay nada de qué preocuparse ya que Microsoft Bing AI se actualizó a GPT-4 de inmediato. Sí, puedes probar este nuevo modelo, con el respaldo de datos de Internet en tiempo real en Bing. Consulte este artículo para obtener información sobre cómo acceder al chat de Bing AI en cualquier navegador, sin limitarse a Edge.

Acceda a GPT-4 con ChatGPT Plus

GPT-4 es disponible para suscriptores de ChatGPT Plus con un límite de uso. OpenAI menciona que ajustará el límite de uso exacto según la demanda y el rendimiento del sistema. Además, la empresa podría incluso introducir un “nuevo nivel de suscripción” para un mayor volumen de uso de GPT-4. Los usuarios gratuitos, por otro lado, tendrán que esperar ya que la compañía no ha mencionado ningún plan específico y solo ‘esperanzas‘ que puede ofrecer cierta cantidad de consultas GPT-4 gratuitas a quienes no tienen una suscripción.

Por lo que parece, GPT-4 se perfilará para ser un modelo de lenguaje extremadamente atractivo incluso con algunas grietas en su armadura. Para aquellos que buscan información aún más detallada, ya tenemos algo en proceso. Así que estad atentos para más.

Similar Posts

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *