Esta semana, la apertura del peso a largo plazo de un largo peso. Administre las quejas GDT en las dificultades, incluidas las Mac con Apple. Así es como comenzar y qué esperar.
Modelos y Macs
Primero, el GPT-oss obtendrá dos sabores: GPT-OSS-20B y GPT-OST-OST-OPT-OSP-с.PT-OSP-OST-1B. Este primero se refleja como un modelo de peso abierto, mientras que el último modelo es un modelo pesado.
El modelo promedio es que MacS Sillicon Mac está esperando que los recursos locales esperen recursos locales. ¿Diferencia? Espere un modelo más pequeño para la marca de más modelo a expensas del plan establecido. Este comercio es un modelo más rápido que realmente funciona al final de Macs Snow.
Sin embargo, un modelo pequeño es un medio claro de limpieza, si tiene el Mac en modelos grandes y la curiosidad en modelos grandes.
También debe ser diferente del modelo local de un modelo local en comparación con, por ejemplo, chatkps. Por defecto, el modelo abierto de su peso no tiene funciones de chatbot modernas para ser útiles. Por ejemplo, no hay respuestas a los resultados web que a menudo limitan la alucinación.
El Abierto fue de al menos 16 GB de RAM para administrar el GPT-OSP-20B, pero el MacS se hace mejor con 32 GB. Según la primera retroalimentación habitual, 16 GB de RAM es realmente un piso a experimentar. (AAI es una gran causa que Apple no venderá Mac con 8 GB de RAM).
Configurar y usar
Además de tratar, no comience realmente.
Instale el Allama primero en Mac. Esta es principalmente una ventana para la interfaz con el GPT-20B. Puedes encontrar un programa Ollama.com/downloado descargue la versión Mac de la pelotaSu signo de descarga.
Más terminal abierto en su Mac y este comando:
ollama pull gpt-oss:20b
ollama run gpt-oss:20b
Esta es la tarea de descargar el GT-US-20B, que utiliza aproximadamente 15 GB de almacenamiento de disco.

Finalmente, puede comenzar Overwe y seleccionar GPT-OSS-20B como su modelo. Incluso puede poner el mundo en el modo de la aerolínea en el panel de configuración de la aplicación para que todo suceda localmente. No hay señal de firmar según sea necesario.
Para verificar el GPP-20S-20B, ingrese el área de texto inmediatamente y aplique el modelo. Una vez más, los recursos de hardware aquí fortalecen los indicadores del modelo aquí. El OLMA usa cada recurso que puede estar enojado mientras trabaja en el modelo, entonces su Mac puede estar enojado mientras la muestra está pensando.

El mejor Mac es un aire macable de 15 pulgadas con 16 GB de RAM. Si bien las funciones ejemplares, es incluso para la experiencia en mi automóvil. Respuesta al «infierno» un poco más de cinco minutos. La respuesta al «13º presidente», hace poco en aproximadamente 43 minutos, ha pasado algún tiempo. Realmente desea conducir más si tiene la intención de pasar unos minutos.
¿Decide eliminar el modelo local y restaurar en el espacio vacío? Ingrese este comando terminal:
ollama rm gpt-oss:20b
Para obtener más información sobre el uso de Allama con GPT-OSP-20B en su Mac, pruébelo Fuente oficial. Alternativamente, puede usar LM StudioOtro programa de Mac para trabajar con modelos de IA.