Fitxers GGUF: què són i per què s'utilitzen

  • GGUF és un format de fitxer optimitzat per a la inferència de models d'IA.
  • Ofereix més compatibilitat, eficiència d'emmagatzematge i flexibilitat davant de GGML.
  • Es pot utilitzar a Python amb la biblioteca C Transformers per carregar models LLM.
  • Es poden descarregar models GGUF a repositoris com Hugging Face o LM Studio.

Arxius GGUF

En els darrers anys, el desenvolupament de la intel·ligència artificial ha avançat a passos de gegant, i amb això han sorgit nous formats d'emmagatzematge i execució de models de llenguatge. Un dels més recents i prometedors és GGUF, un format dissenyat per millorar la eficiència a la inferència de models LLM (Large Language Models).

Tot i que anteriorment formats com GGML eren àmpliament utilitzats, GGUF ha arribat per superar les seves limitacions i oferir avantatges addicionals en termes de rendiment i compatibilitat. En aquest article, explorarem en profunditat què són els fitxers GGUF, com funcionen i on podem trobar-los per utilitzar-los als nostres propis projectes d'IA.

Què són els fitxers GGUF?

Els fitxers GGUF són un format binari d'emmagatzematge dissenyat específicament per a models d'intel·ligència artificial, especialment per a LLM i models de Recuperació Augmentada per Generació (RAG). GGUF ha estat desenvolupat per optimitzar el processament i la inferència en maquinari dús comú, permetent que models avançats puguin executar-se en equips sense necessitat de infraestructures costoses.

Aquest format es basa en el ja conegut GGML, però introdueix millores significatives en termes de flexibilitat, compatibilitat i eficiència. Gràcies a GGUF, els models es poden carregar de forma més ràpida i sense perdre compatibilitat amb diferents eines d'intel·ligència artificial.

Avantatges dels fitxers GGUF

LLAMA CPP

El format GGUF s'ha desenvolupat amb la intenció de superar algunes de les limitacions de GGML i altres formats utilitzats per a la inferència de models d'IA. Entre els seus principals avantatges destaquen:

  • Major compatibilitat: GGUF és compatible amb múltiples frameworks i bindings com Flama CPP i Kobold AI, cosa que facilita la seva integració en diferents entorns.
  • Millor eficiència d'emmagatzematge: Aquest format permet reduir el mida dels models sense afectar en gran mesura el seu rendiment, optimitzant la velocitat de càrrega.
  • extensibilitat: A diferència del seu predecessor GGML, GGUF permet incorporar més informació i paràmetres sense comprometre la compatibilitat amb versions anteriors.
  • Facilitat de personalització: GGUF permet als usuaris modificar i ajustar els models de manera més intuïtiva, sense necessitat de bregar amb configuracions complexes.

Com utilitzar fitxers GGUF?

L'ús de fitxers GGUF a la inferència de models LLM és força senzill si se segueixen certs passos clau. A continuació, us mostrem com podeu carregar i utilitzar aquests fitxers al vostre entorn de treball:

1. Instal·lació de les eines necessàries

Per utilitzar models en format GGUF, és fonamental comptar amb la biblioteca C Transformers en la darrera versió. Aquesta biblioteca proporciona les eines necessàries per carregar i executar models LLM de manera eficient.

Si utilitzes Python, pots instal·lar C Transformers amb la següent ordre:

pip install c_transformers

2. Descàrrega d'un model en format GGUF

Gran model de llengua

Hi ha diverses fonts per descarregar models LLM en format GGUF. Un dels repositoris més populars és Cara abraçada, on es poden trobar una gran varietat de models preentrenats llestos per al seu ús.

Per descarregar un model, simplement accedeix a la secció de fitxers GGUF a Hugging Face i tria el que millor s'adapti a les teves necessitats.

3. Càrrega del model a Python

Quan tinguis el model descarregat al teu sistema, pots carregar-lo utilitzant la llibreria C Transformers. A continuació, us mostrem un exemple de codi per carregar un model Truca en format GGUF:

from c_transformers import AutoModel

model_path = "ruta/al/archivo.gguf"
modelo = AutoModel.from_pretrained(model_path)

4. Realització d'inferències

Per executar la inferència amb el model carregat, simplement proporciona un missatge dentrada i obtingues la resposta generada:

mensaje = "¿Cuál es la capital de Francia?"
respuesta = modelo(mensaje)
print(respuesta)

Aquest procés carregarà el model i generarà una resposta basada en la pregunta feta.

On trobar fitxers GGUF

Estudi LM

Els fitxers GGUF es poden trobar en diferents repositoris en línia models d'intel·ligència artificial. Alguns dels més destacats són:

  • Cara abraçada: És el principal repositori on els usuaris poden descarregar models en format GGUF per fer inferències localment.
  • Estudi LM: Un programari que permet gestionar models de IA i descarregar directament fitxers GGUF.
  • Fòrums i comunitats de IA: A plataformes com Reddit, els desenvolupadors solen compartir informació sobre models GGUF i on descarregar-los.

L'ús de fitxers GGUF està revolucionant la manera com s'executen models de llenguatge en ordinadors convencionals. Gràcies a la seva eficiència i flexibilitat, s'està convertint en una opció imprescindible per a aquells que volen treballar amb intel·ligència artificial sense dependre de servidors al núvol.


Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: Miguel Ángel Gatón
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.