
La nova família Gemma 4 s'ha convertit en un dels moviments més comentats al panorama de la intel·ligència artificial oberta. Google DeepMind ha decidit redoblar la seva aposta pels models de pes obert amb una generació que combina rendiment competitiu, execució local i una llicència molt més permissiva que no pas en versions anteriors.
Aquest llançament situa Gemma 4 al centre del debat sobre models d'IA open source, un terreny on fins ara destacaven sobretot propostes de Meta, Mistral i laboratoris xinesos com DeepSeek. Amb quatre variants pensades per anar des d'un mòbil Android o una Raspberry Pi fins a una GPU de gamma alta al núvol, Google busca que desenvolupadors, empreses europees i administracions públiques puguin desplegar IA avançada a la seva pròpia infraestructura sense tants condicionants legals ni tècnics.
Què és Gemma 4 i quin lloc ocupa a l'ecosistema d'IA oberta
Gemma 4 és una família de quatre models de llenguatge de pes obert construïts sobre la mateixa base de recerca que Bessons 3. A diferència de generacions anteriors de Gemma, aquesta sèrie arriba des del primer dia baix llicència Apache 2.0, un punt clau perquè permet ús comercial, modificació i redistribució sense les restriccions addicionals que frenaven la seva adopció a entorns corporatius.
Amb aquest moviment, Google DeepMind intenta recuperar terreny en un segment on models com diu de Meta o les famílies xineses Qwen, DeepSeek o GLM havien guanyat molta visibilitat, com mostra una comparativa Gemma 3 i DeepSeek. Els models de Gemma ja sumaven més de 400 milions de descàrregues i més de 100.000 variants comunitàries abans de Gemma 4; ara, amb una llicència estàndard i clara, l'objectiu és que aquesta tracció es tradueixi en més projectes en producció real, també al mercat europeu.
La pròpia DeepMind presenta Gemma 4 com una col·lecció de models open-weight d'última generació, orientats tant a l'experimentació com al desplegament industrial. La idea és que qualsevol equip tècnic, des d'una startup de Barcelona fins a un grup de recerca a Berlín, pugui descarregar els pesos, ajustar-los al domini i executar-los localment o al núvol europeu de la seva elecció.
Les quatre variants de Gemma 4: del mòbil a la GPU H100
La família es compon de quatre models amb mides i arquitectures diferenciades, dissenyats per cobrir pràcticament tot l'espectre de maquinari disponible, des de l'edge fins a grans servidors.
A la gamma lleugera estan Gemma 4 E2B y Gemma 4 E4B, Pensats per execució en dispositius mòbils, Raspberry Pi, Jetson Nano i altres equips edge amb recursos limitats. Aquests models prioritzen la baixa latència i el consum contingut, sense necessitat de connexió constant al núvol, una cosa especialment interessant per a aplicacions industrials, sanitàries o educatives a Europa que requereixin mantenir les dades en local per motius de privadesa o compliment normatiu.
A l'extrem superior se situen Gemma 4 26B MoE y Gemma 4 31B Dense. El primer utilitza una arquitectura Mescla d'experts (MoE) amb fins a 128 «experts», cosa que permet oferir un rendiment proper al de models més grans, però amb costos d'inferència comparables a models mitjans. El segon, la versió 31B Doneu-vos, està optimitzada per a qualitat i s'ha col·locat ja al top 3 del rànquing d'Arena AI per a models oberts de text, competint amb propostes considerablement més grans.
Google afirma que les variants de 26B i 31B ofereixen capacitats de nivell gairebé frontera amb una sobrecàrrega de maquinari reduïda. A la pràctica, els pesos a precisió completa dels models grans caben en una GPU Nvidia H100 de 80 GB, i les versions quantitzades poden executar-se a maquinari de consum, cosa que obre la porta al seu ús en estacions de treball avançades en empreses europees sense necessitat de grans clústers.
Capacitats tècniques: multimodalitat, raonament i context estès
Més enllà de la mida, Gemma 4 destaca per una combinació de capacitats avançades en raonament, codi i multimodalitat. Els models introdueixen millores clares a raonament multietapa, el que es tradueix en respostes més robustes en tasques de matemàtiques, lògica i planificació, àmbits clau per a aplicacions empresarials i científiques.
En el terreny del desenvolupament de programari, Gemma 4 està afinat per generació de codi offline i tasques de programació complexes. Les proves inicials apunten a una alta fiabilitat zero-shot: el model és capaç de produir fragments de codi que compilen i funcionen a la primera, encara que la solució no és especialment sofisticada des del punt de vista creatiu. Per a molts equips d'enginyeria a Europa, aquesta fiabilitat pot ser més valuosa que respostes cridaneres però fràgils.
Un altre pilar de Gemma 4 és la multimodalitat nativa. Tota la família pot processar text, imatges i vídeo de forma integrada, i les variants lleugeres també inclouen entrada d'àudio amb suport per a ordres parlades i transcripció local. Això facilita construir assistents que entenguin captures de pantalla, documents escanejats o clips de vídeo, cosa útil tant en contextos domèstics com en entorns professionals.
Pel que fa al context, Gemma 4 suporta finestres de fins 256.000 fitxes en els models grans i al voltant de 128.000 fitxes als models edge. Aquesta capacitat per fer servir grans quantitats d'informació permet treballar amb documentació extensa, bases de coneixement internes o historials complets de conversa sense perdre context, un aspecte molt valorat per empreses europees que volen integrar IA als seus sistemes de gestió documental o CRM.
Execució local i optimització per a edge: IA sense dependre sempre del núvol
Un dels trets més rellevants de Gemma 4 és el seu enfocament decidit a la IA executable en local. Els models E2B i E4B estan optimitzats per a telèfons Android, dispositius edge i fins i tot plaques de baix cost com Raspberry Pi o petits SoC orientats a IoT. L'objectiu és reduir la dependència contínua del núvol i baixar la latència nivells gairebé imperceptibles per a l'usuari final.
Aquesta filosofia encaixa força bé amb les necessitats de moltes organitzacions a Espanya i la resta d'Europa, On el compliment del RGPD i altres normatives obliga a tractar les dades amb una cura especial. Poder desplegar models de llenguatge i visió per ordinador que processen informació directament al dispositiu o en un servidor on-premise simplifica les auditories de compliment i evita transferències de dades innecessàries a països tercers.
Per maximitzar l'eficiència en entorns edge, els models lleugers incorporen tècniques com Per-Layer Embeddings (PLE), que busquen extreure més rendiment de cada paràmetre i mantenir un equilibri raonable entre consum, velocitat i qualitat de resposta. Això resulta especialment interessant per projectes pilot en indústria 4.0, smart cities o sanitat connectada, on el maquinari disponible al camp no sempre és especialment potent.
Alhora, els models de 26B i 31B s'han ajustat per rendir bé a GPU modernes de Nvidia i AMD, així com a la infraestructura de Google Cloud TPU. A la pràctica, això permet a empreses europees avaluar diferents estratègies: des de execució local en un CPD propi fins a desplegaments híbrids en núvols públics amb centres de dades a la UE.
Llicència Apache 2.0: per què és tan important per a empreses i startups
Si alguna cosa ha canviat la percepció de Gemma 4 a l'ecosistema de desenvolupadors és la seva llicència Apache 2.0. Fins ara, Google distribuïa Gemma amb una llicència pròpia més restrictiva, que generava dubtes als departaments legals de grans companyies europees i frenava l'adopció en projectes amb vocació comercial clara.
Amb Apache 2.0, les regles del joc són molt més senzilles: els models es poden utilitzar, modificar, redistribuir i empaquetar en productes comercials sense necessitat de negociar acords específics amb Google. A més, les empreses poden mantenir la propietat intel·lectual sobre els seus ajustaments i derivats, sempre que respectin les condicions estàndard de la llicència, cosa a què els equips legals ja estan acostumats perquè és habitual en projectes open source consolidats.
Un altre punt rellevant per a companyies amb presència a diversos països europeus és que Apache 2.0 proporciona una base jurídica ben coneguda i relativament homogènia. Això redueix la incertesa a l'hora d'escalar productes a altres mercats de la UE o de l'Espai Econòmic Europeu, on les normatives de protecció de dades i les exigències de transparència poden variar, però les referències en matèria de llicències de programari obert són molt similars.
per a les startups tecnològiques, aquesta llicència suposa poder construir SaaS, eines internes o solucions verticals basades a Gemma 4 sense que cada ronda de finançament hagi d'anar acompanyada d'una revisió jurídica exhaustiva del model base. En un context on la velocitat dexecució és clau, comptar amb una llicència estandarditzada facilita molt el camí.
Integració, ecosistema i eines compatibles
Un dels objectius declarats de Google amb Gemma 4 és que els models s'integrin bé amb el ecosistema open source existent. Per això, des del primer dia estan disponibles a Cara abraçada, una de les plataformes clau per a la comunitat d'IA, i compten amb suport en eines populars com Ollama, LM Studio o Docker. Això facilita que tant desenvolupadors individuals com equips de dades a empreses puguin provar els models sense un procés de desplegament complex.
A més, Gemma 4 incorpora de sèrie funcions pensades per a agents autònoms i fluxos avançats, Com el function calling nadiu, l' generació de sortides en JSON estructurat i el suport per instruccions de sistema. Aquestes característiques simplifiquen la construcció d'assistents que anomenin API, connectin amb bases de dades o interactuïn amb altres eines corporatives sense necessitat de capes addicionals d'enginyeria.
Al plànol de desplegament al núvol, els models s'integren amb Google AI Studio, Vertex AI i Google AI Edge Gallery, però també poden executar-se en altres infraestructures gràcies a la seva distribució com a pesos oberts. Això permet a organitzacions europees optar per núvols amb centres de dades a la UE o, si ho prefereixen, mantenir tot el processament en instal·lacions pròpies per reforçar el control sobre les dades.
El suport per a més de 140 idiomes converteix Gemma 4 en una opció raonable per a aplicacions multilingües, una cosa particularment rellevant a Europa, on conviuen mercats nacionals amb fortes particularitats lingüístiques. Des d'assistents en català i castellà fins a interfícies en francès, alemany o italià, la família Gemma està pensada per adaptar-se sense necessitat de recórrer a models diferents per a cada idioma.
En conjunt, la combinació de pesos oberts, eines compatibles i llicència permissiva col·loca Gemma 4 com una de les opcions més completes per als que necessiten models d'IA que puguin ajustar-se, auditar-se i desplegar-se amb cert control, sense renunciar a un rendiment competitiu davant d'altres alternatives obertes del mercat.
Tot aquest moviment per part de Google DeepMind reforça la sensació que la IA oberta d'alt nivell ha deixat de ser un experiment de laboratori per convertir-se en una peça estratègica de producte i infraestructura. Gemma 4 arriba en un moment en què empreses i administracions públiques europees busquen equilibrar innovació, sobirania tecnològica i compliment normatiu, i encaixa bé en aquest escenari en oferir models potents, executables en local i amb una llicència estàndard. Per a desenvolupadors i organitzacions que vulguin explorar o consolidar solucions basades en models de llenguatge oberts, Gemma 4 se suma així a la llista curta d'alternatives que cal tenir seriosament en compte.




