Relación de artículos y noticias |
El lanzamiento de GPT-2, GPT-3 y GPT-4, los LLM de OpenAI, ha seguido siempre el mismo patrón: se entrenaban en centros de datos cada vez más grandes y potentes, y lo hacían también con más y más datos. Cada modelo era notablemente mejor que el anterior, así que todos creíamos que ese proceso de escalado seguiría funcionando. Y parece que no lo hace.