
Haiku 3.5 de Anthropic sorprende a los expertos con una subida de precio “inteligente”

Hablando de Opus, Claude 3.5 Opus no se ve por ningún lado, ya que El investigador de IA Simon Willison señaló a Ars Technica en una entrevista. “Todas las referencias al 3.5 Opus han desaparecido sin dejar rastro, y el precio del 3.5 Haiku aumentó el día de su lanzamiento”, afirmó. “Claude 3.5 Haiku es significativamente más caro que Gemini 1.5 Flash y GPT-4o mini, los excelentes modelos de bajo costo de los competidores de Anthropic”.
¿Más barato con el tiempo?
Hasta ahora, en la industria de la IA, las versiones más nuevas de los modelos de lenguaje de IA suelen mantener precios similares o más baratos que sus predecesores. La compañía había indicado inicialmente que Claude 3.5 Haiku costaría lo mismo que la versión anterior antes de anunciar tarifas más altas.
“Esperaba que este fuera un reemplazo completo para su modelo Claude 3 Haiku existente, de la misma manera que Claude 3.5 Sonnet eclipsó al Claude 3 Sonnet existente manteniendo el mismo precio”, Willison escribió en su blog. “Dado que Anthropic afirma que su nuevo Haiku supera a su antiguo Claude 3 Opus, este precio no es decepcionante, pero de todos modos es una pequeña sorpresa”.
Claude 3.5 Haiku llega con algunas compensaciones. Si bien el modelo produce resultados de texto más largos y contiene datos de entrenamiento más recientes, no puede analizar imágenes como su predecesor. Alex Albert, que dirige las relaciones con los desarrolladores en Anthropic, escribió en X que la versión anterior, Claude 3 Haiku, seguirá estando disponible para los usuarios que necesitan capacidades de procesamiento de imágenes y costos más bajos.
El nuevo modelo aún no está disponible en la interfaz web ni en la aplicación Claude.ai. En cambio, se ejecuta en la API de Anthropic y en plataformas de terceros, incluido AWS Bedrock. Anthropic comercializa el modelo para tareas como sugerencias de codificación, extracción y etiquetado de datos y moderación de contenido, aunque, como cualquier LLM, puede inventar cosas fácilmente con confianza.
“¿Es lo suficientemente bueno como para justificar el gasto adicional? Será difícil entenderlo”, dijo Willison a Ars. “Los equipos con evaluaciones automatizadas sólidas de sus casos de uso estarán en un buen lugar para responder esa pregunta, pero siguen siendo poco comunes”.