Close Menu
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram
    BitsCloudBitsCloud
    • Categorías
      • Aplicaciones
      • Uncategorized
      • Gadgets
      • Negocios
      • Comunicación
      • Entretenimiento
      • Seguridad
      • Ciencia
      • Video
    • Acerca
    • Editores
    • Contacto
    • Español
      • English
      • Español
    BitsCloudBitsCloud
    Home»Aplicaciones»Matt Shumer se disculpa por el fracaso del modelo de IA HyperWrite 70B
    Aplicaciones

    Matt Shumer se disculpa por el fracaso del modelo de IA HyperWrite 70B

    Byron MayorgaBy Byron Mayorgaseptiembre 11, 2024No hay comentarios6 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    HyperWrite 70B
    Share
    Facebook Twitter LinkedIn Pinterest Telegram Email

    Matt Shumer habla sobre HyperWrite 70B. El fundador y CEO de OthersideAI, también conocido como el producto de asistencia de escritura de IA firmado HyperWrite, ha roto su silencio de casi dos días después de ser acusado de fraude cuando los investigadores de terceros no pudieron replicar el supuesto rendimiento superior del nuevo modelo de lenguaje grande (LLM) que lanzó el jueves 5 de septiembre.

    Contenido

    • El modelo de IA HyperWrite 70B: ¿qué pasó?
    • El fracaso de HyperWrite 70B y sus consecuencias
    • Matt Shumer se disculpa y promete mejorar
    • La tecnología detrás de HyperWrite 70B
    • Cómo funcionaba el modelo de IA
    • Las expectativas y promesas de HyperWrite 70B
    • ¿Qué pasará con el modelo de IA HyperWrite 70B?
    • La importancia de la transparencia en la IA
    • Cómo mejorar la confiabilidad de los modelos de IA

    El modelo de IA HyperWrite 70B: ¿qué pasó?

    En su cuenta en la red social X, Shumer se disculpó y afirmó que «Me adelanté a mí mismo», agregando «Sé que muchos de ustedes están emocionados con el potencial de esto y ahora están escépticos». Sin embargo, sus últimas declaraciones no explican por qué su modelo, Reflection 70B, que afirmó ser una variante de Meta’s Llama 3.1 entrenado utilizando la plataforma de generación de datos sintéticos Glaive AI, no ha funcionado tan bien como originalmente se afirmó en todos los tests independientes posteriores. Ni Shumer ha aclarado con precisión qué fue lo que salió mal. Aquí hay un resumen de lo que sucedió:

    El jueves 5 de septiembre, Shumer lanzó Reflection 70B, en la comunidad de código abierto de AI Hugging Face, llamándolo «el modelo de código abierto más capaz del mundo» en un post en X y publicando un gráfico de lo que dijo eran sus resultados de estado del arte en terceros marcos de referencia. Shumer afirmó que el rendimiento impressionante se logró mediante una técnica llamada «tuning de reflexión», que permite al modelo evaluar y afinar sus respuestas para la corrección antes de enviarlas a los usuarios.

    VentureBeat entrevistó a Shumer y aceptó sus marcos de referencia como él los presentó, creditándolos a él, ya que no tienen el tiempo ni los recursos para realizar sus propios tests de benchmarking independientes – y la mayoría de los proveedores de modelos que hemos cubierto hasta ahora han sido transparentes.

    El fracaso de HyperWrite 70B y sus consecuencias

    Sin embargo, solo días después de su debut y durante el fin de semana, evaluadores de terceros independientes y miembros de la comunidad de código abierto de AI en Reddit y Hacker News comenzaron a cuestionar el desempeño del modelo y no pudieron replicarlo en sus propios tests. Algunos incluso encontraron respuestas y datos que indicaban que el modelo estaba relacionado con – quizás sólo un «envoltorio delgado» – con el modelo de Anthropic Claude 3.5 Sonnet.

    La crítica aumentó después de que Artificial Analysis, una organización de evaluación de AI independiente, publicó en X que sus tests de Reflection 70B dieron resultados significativamente más bajos que los inicialmente afirmados por HyperWrite. Además, Shumer fue encontrado invertido en Glaive, la startup de AI que dijo utilizar para entrenar el modelo, lo que no reveló al lanzar Reflection 70B.

    Matt Shumer se disculpa y promete mejorar

    Shumer atribuyó las desviaciones a problemas durante el proceso de carga del modelo a Hugging Face y prometió corregir los pesos del modelo la semana pasada, pero aún no lo ha hecho. Un usuario de X, Shin Megami Boson, acusó abiertamente a Shumer de «fraude en la comunidad de investigación de AI» el domingo 8 de septiembre. Shumer no respondió directamente a esta acusación.

    Después de publicar y reproducir varios mensajes de X relacionados con Reflection 70B, Shumer se quedó en silencio el domingo por la noche y no respondió a la solicitud de comentarios de VentureBeat – ni publicó ningún post en X – hasta esta noche, martes 10 de septiembre.

    El modelo de IA HyperWrite 70B: características y funcionalidades

    La tecnología detrás de HyperWrite 70B

    Shumer atribuyó las capacidades del modelo a una nueva técnica de entrenamiento llamada «tuning de reflexión». Este proceso de dos etapas enseña a los modelos a reconocer y corregir sus propios errores antes de proporcionar una respuesta final. El modelo primero genera una respuesta preliminar. Luego, reflexiona sobre esta respuesta, identificando posibles errores o inconsistencias, y produce una versión corregida. Los modelos de lenguaje existentes a menudo «alucinan» hechos sin reconocer el problema. El tuning de reflexión busca ayudar a Reflection 70B a corregir sus errores.

    Cómo funcionaba el modelo de IA

    El modelo de IA HyperWrite 70B utilizaba una técnica llamada «tuning de reflexión» para mejorar su rendimiento. Esta técnica consiste en una etapa de planificación y otra de respuesta. El modelo primero genera una respuesta preliminar, luego reflexiona sobre esta respuesta y la corrige si es necesario. Esto ayuda a evitar que el modelo «alucine» hechos y a mejorar la precisión de sus respuestas.

    Las expectativas y promesas de HyperWrite 70B

    Shumer afirmó que Reflection 70B podía competir con los modelos de lenguaje cerrados más avanzados, como Claude 3.5 Sonnet y GPT-4o. También afirmó que el modelo podía superar a Llama 3.1 405B en varios marcos de referencia, incluyendo MMLU, MATH, IFEval y GSM8K.

    El futuro de HyperWrite 70B y la industria de la IA

    ¿Qué pasará con el modelo de IA HyperWrite 70B?

    El futuro de HyperWrite 70B es incierto. Shumer ha prometido mejorar el modelo y proporcionar más información sobre su rendimiento. Sin embargo, la crítica y las acusaciones de fraude han generado una gran cantidad de especulación y debate en la comunidad de AI.

    La importancia de la transparencia en la IA

    La transparencia es fundamental en la industria de la IA. Los desarrolladores de modelos de lenguaje deben ser transparentes sobre sus métodos y resultados. Esto ayuda a construir confianza en la comunidad y a evitar la especulación y el debate innecesarios.

    Cómo mejorar la confiabilidad de los modelos de IA

    Para mejorar la confiabilidad de los modelos de IA, es importante utilizar técnicas de entrenamiento y evaluación rigurosas. Esto incluye utilizar marcos de referencia independientes y terceros, así como evaluar el rendimiento de los modelos en diferentes escenarios y contextos. También es importante ser transparentes sobre los métodos y resultados del entrenamiento y la evaluación.

    Técnica de entrenamientoVentajasDesventajas
    Tuning de reflexiónMejora la precisión y la confiabilidad del modeloPuede ser costoso y complejo de implementar
    Entrenamiento con datos sintéticosPermite la creación de datos personalizados y controladosPuede ser difícil de replicar en entornos reales
    Marca de referenciaDescripciónVentajasDesventajas
    MMLUEvaluación de la precisión y la consistencia del modeloFácil de implementar y reproducirPuede ser sesgado hacia modelos con un enfoque en la precisión
    GSM8KEvaluación de la capacidad del modelo para generar texto coherenteFácil de implementar y reproducirPuede ser sesgado hacia modelos con un enfoque en la coherencia
    Recursos adicionalesDescripciónVentajasDesventajas
    Hugging FacePlataforma de código abierto para compartir y reproducir modelos de lenguajeFácil de utilizar y reproducirPuede ser limitado en términos de recursos y capacidades
    Scale AIProveedor de servicios de evaluación y entrenamiento de modelos de lenguajeOfrece recursos y capacidades avanzadasPuede ser costoso y complejo de utilizar

    fraude HyperWrite IA Matt Shumer modelo de 70B parámetros
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Byron Mayorga
    • Website

    Conjugando tecnología y negocios.

    Related Posts

    Modo Escritorio en Android: ¡Transforma tu teléfono en un potente PC!

    mayo 2, 2025

    Meta AI app: Descubre la nueva app para competir con ChatGPT

    abril 30, 2025

    Comparación de Modelos OpenAI: O3, o4-mini, and GPT-4.1. O3 Brilla en Modelado Financiero

    abril 21, 2025

    Instagram Blend: La nueva forma divertida de compartir Reels con amigos

    abril 17, 2025

    Red social ChatGPT: ¿La nueva propuesta de OpenAI para enfrentarse a X de Elon Musk?

    abril 15, 2025

    Memes de Studio Ghibli se vuelven virales con nuevo ChatGPT y generan preocupaciones sobre derechos de autor

    marzo 28, 2025
    Leave A Reply

    Lo siento, debes estar conectado para publicar un comentario.

    Síguenos
    Follow @bitscloud

    Suscríbete para conocer nuestras novedades

    Facebook X (Twitter) Instagram Pinterest
    • Aplicaciones
    • Ciencia
    • Comunicación
    • Entretenimiento
    • Gadgets
    • Internet
    • Negocios
    • Seguridad
    • Sociedad
    • Publicidad
    • Video
    • AI News
    • Clasificados Ecuador
    © 2025 BitsCloud. Powered by INTELGI.

    Type above and press Enter to search. Press Esc to cancel.