Documento filtrado de Microsoft: ¿sólo 8.000 millones para GPT-4o-mini y 100.000 millones para o1-mini?
Ha habido un debate en curso sobre los tamaños de los parámetros de los principales LLM de código cerrado, y en los últimos 2 días de 2024 un estudio de Microsoft sobre MEDEC, un benchmark de prueba para detectar y corregir errores médicos en notas clínicas, omitió accidentalmente sus tamaños de parámetros de forma rotunda: o1-preview, GPT-4...