Las empresas deben reflexionar cuidadosamente antes de adoptar la API para el nuevo modelo de lenguaje de xAI, que aún está disponible solo en versión beta.
Una vez simplemente un chatbot, la familia de modelos de lenguaje grande (LLM) Grok 3 de xAI ahora está disponible en versión beta a través de una API, lo que permite a los desarrolladores integrar Grok 3 en aplicaciones personalizadas.
La empresa ofrece dos nuevos LLM: uno con un profundo conocimiento de dominios como finanzas, atención médica, derecho y ciencia, y un modelo ligero sin conocimiento de dominio pero con la capacidad de mostrar cómo razona sus respuestas.
Una versión más rápida de cada modelo está disponible por un costo adicional.
Al igual que todos los modelos de IA, su adopción está moderada por preocupaciones de seguridad, como su vulnerabilidad a entradas adversariales.
La API admite capacidades multimodales, incluyendo análisis de imágenes, y se alinea con estándares amigables para desarrolladores similares a los marcos de OpenAI y Anthropic.
La ventana de contexto, la cantidad de información que el modelo puede procesar a la vez, para todas las versiones de la API de Grok 3 está limitada a 131,072 tokens.
Precios de Grok
- Para grok-3-beta, el modelo con profundo conocimiento de dominio: $3 por millón de tokens de entrada y $15 por millón de tokens de salida.
- Para el modelo más rápido de esta versión: $5 y $25, respectivamente.
- Para grok-3-mini-beta, el modelo con capacidades de razonamiento: $0.30 por millón de tokens de entrada y $0.50 por millón de tokens de salida (o $0.60 y $4, respectivamente, para la versión más rápida).
En comparación, la API de la versión anterior grok-2 cuesta $2 por millón de tokens de entrada y $10 por millón de tokens de salida.
Preguntas de seguridad
Sin embargo, mientras las empresas consideran adoptar esta tecnología, los líderes de ciberseguridad están planteando preguntas urgentes sobre sus riesgos y la preparación para su uso comercial.
La API de Grok 3 llega con promesas audaces, como capacidades avanzadas de razonamiento, búsqueda web en tiempo real a través de DeepSearch y procesamiento multimodal.
Cuando Musk lanzó Grok por primera vez, quería posicionarlo como la alternativa «anti-woke» a los sistemas de IA más filtrados, afirmando que ofrecía mayor transparencia y respuestas menos restrictivas.
Sin embargo, este enfoque está generando preocupaciones entre los responsables de seguridad informática que evalúan la tecnología.
“Antes de que un modelo de IA como este sea aprobado para su uso, sería esencial un proceso de revisión riguroso”, dijo Dina Saada, analista de ciberseguridad y miembro de Women in Cybersecurity Middle East (WISCME).
“Desde el punto de vista de la inteligencia, esto implicaría múltiples capas de pruebas, como revisiones de código para vulnerabilidades, pruebas de penetración, análisis de comportamiento bajo condiciones de estrés y verificaciones de cumplimiento con estándares de seguridad.”
“Para ganarse la confianza, xAI debe demostrar dos cosas: primero, transparencia y segundo, resistencia”, añadió Saada.
El equipo de Musk en xAI enfrenta una tarea importante en los próximos meses. Si bien la API de Grok 3 muestra capacidades prometedoras, representa una oportunidad para asegurar a las empresas que xAI puede cumplir con sus expectativas en cuanto a integridad y confiabilidad del modelo.
La adopción empresarial dependerá de que demuestre una robusta integridad del modelo y confiabilidad junto con el rendimiento técnico.
Si bien los desarrolladores ya han probado las capacidades de Grok 3 durante semanas a través de interfaces de chat existentes, la escalabilidad de la API y el cumplimiento de los protocolos de seguridad de nivel empresarial determinarán su viabilidad para organizaciones grandes.
Artículos Relacionados
Descubre más desde CIBERED
Suscríbete y recibe las últimas entradas en tu correo electrónico.


