Microsoft adaugă GPT-4 Turbo LLM la versiunea gratuită a Copilot
În 2023, Microsoft a pariat puternic pe inteligența artificială și pe parteneriatul său cu OpenAI pentru a face din Copilot o realitate.
Cu LLM-urile cuantice disponibile acum pe ecosistemele HuggingFace și AI precum H20, Text Gen și GPT4All, permițându-vă să încărcați greutăți LLM pe computer, aveți acum o opțiune pentru AI gratuită, flexibilă și sigură. Iată cele mai bune 9 LLM-uri locale/offline pe care le poți încerca chiar acum!
Cuprins

Hermes 2 Pro este un model de limbaj avansat, reglat fin de Nous Research. Utilizează o versiune actualizată și redusă a setului de date OpenHermes 2.5, împreună cu noile seturi de date Function Calling și JSON dezvoltate de companie însăși. Acest model se bazează pe arhitectura Mistral 7B și a fost antrenat pe 1.000.000 de instrucțiuni/conversații de calitate GPT-4 sau mai bună, în mare parte date sintetice.
|
Model |
Hermes 2 Pro GPTQ |
|---|---|
|
Dimensiunea modelului |
7,26 GB |
|
Parametrii |
7 miliarde |
|
Cuantizarea |
4 biți |
|
Tip |
Mistral |
|
Licenţă |
Apache 2.0 |
Hermes 2 Pro de pe Mistral 7B este noul model emblematic Hermes 7B, oferind performanțe îmbunătățite într-o varietate de benchmark-uri, inclusiv AGIEval, BigBench Reasoning, GPT4All și TruthfulQA. Capacitățile sale avansate îl fac potrivit pentru multe sarcini de procesare a limbajului natural (NLP), cum ar fi generarea de cod, crearea de conținut și aplicațiile AI conversaționale.
Zephyr este o serie de modele de limbaj antrenate să acționeze ca asistenți de ajutor. Zephyr-7B-Beta este al doilea model din serie, rafinat din Mistral-7B-v0.1 folosind Direct Preference Optimization (DPO) pe un amestec de seturi de date sintetice disponibile public.
|
Model |
Zephyr 7B Beta |
|---|---|
|
Dimensiunea modelului |
7,26 GB |
|
Parametrii |
7 miliarde |
|
Cuantizarea |
4 biți |
|
Tip |
Mistral |
|
Licenţă |
Apache 2.0 |
Prin eliminarea alinierii încorporate a seturilor de date de antrenament, Zephyr-7B-Beta demonstrează o performanță îmbunătățită pe benchmark-uri precum MT-Bench, sporindu-și utilitatea într-o varietate de sarcini. Cu toate acestea, această ajustare poate duce la generarea de text problematică atunci când vi se solicită în anumite moduri.

Această versiune cuantificată a Falcon se bazează pe o arhitectură exclusiv de decodor, rafinată pe modelul brut Falcon-7b al lui TII. Modelul de bază Falcon este antrenat folosind 1,5 trilioane de jetoane restante, provenite de pe internetul public. Fiind un model de decodor bazat pe comandă cu licență Apache 2, Falcon Instruct este perfect pentru întreprinderile mici care caută un model pe care să-l folosească pentru traducerea limbilor și asimilarea de date.
|
Model |
Falcon-7B-Instruct |
|---|---|
|
Dimensiunea modelului |
7,58 GB |
|
Parametrii |
7 miliarde |
|
Cuantizarea |
4 biți |
|
Tip |
Şoim |
|
Licenţă |
Apache 2.0 |
Totuși, această versiune de Falcon nu este ideală pentru reglaje fine și este destinată doar inferenței. Dacă vrei să ajustezi fin Falcon, va trebui să utilizezi modelul brut, ceea ce poate necesita acces la hardware de antrenament de nivel enterprise, cum ar fi NVIDIA DGX sau AMD Instinct AI Accelerators.
GPT4All-J Groovy este un model numai pentru decodor, reglat de Nomic AI și licențiat sub Apache 2.0. GPT4ALL-J Groovy se bazează pe modelul original GPT-J, despre care se știe că este excelent la generarea de text din solicitări. GPT4ALL -J Groovy a fost adaptat la un model conversațional, care este excelent pentru aplicații rapide și creative de generare de text. Acest lucru face ca GPT4All-J Groovy să fie ideal pentru creatorii de conținut pentru a-i ajuta cu scrierea și compoziția lor, fie că este vorba de poezie, muzică sau povești.
|
Model |
GPT4ALL-J Groovy |
|---|---|
|
Dimensiunea modelului |
3,53 GB |
|
Parametrii |
7 miliarde |
|
Cuantizarea |
4 biți |
|
Tip |
GPT-J |
|
Licenţă |
Apache 2.0 |
Din păcate, modelul de bază GPT-J a fost antrenat pe un set de date doar în limba engleză, ceea ce înseamnă că chiar și acest model GPT4ALL-J reglat fin poate conversa și efectua aplicații de generare de text doar în limba engleză.

DeepSeek Coder V2 este un model de limbaj avansat care îmbunătățește programarea și raționamentul matematic. DeepSeek Coder V2 acceptă mai multe limbaje de programare și oferă o lungime extinsă a contextului, făcându-l un instrument versatil pentru dezvoltatori.
|
Model |
DeepSeek Coder V2 Instruct |
|---|---|
|
Dimensiunea modelului |
13 GB |
|
Parametrii |
33 de miliarde |
|
Cuantizarea |
4 biți |
|
Tip |
DeepSeek |
|
Licenţă |
Apache 2.0 |
În comparație cu predecesorul său, DeepSeek Coder V2 prezintă îmbunătățiri semnificative în sarcinile legate de cod, raționament și capabilități generale. Extinde suportul pentru limbaje de programare de la 86 la 338 și extinde lungimea contextului de la 16K la 128K tokens. În benchmark-uri, depășește modele precum GPT-4 Turbo, Claude 3 Opus și Gemini 1.5 Pro în benchmark-uri criptografice și matematice.

Mixtral-8x7B este un amestec de modele experte (MoE) dezvoltate de Mistral AI. Are 8 experți per MLP, însumând 45 de miliarde de parametri. Cu toate acestea, doar doi experți sunt activați pe token în timpul inferenței, ceea ce îl face eficient din punct de vedere computațional, cu viteză și cost comparabil cu un model cu 12 miliarde de parametri.
|
Model |
Mixtral-8x7B |
|---|---|
|
Dimensiunea modelului |
12 GB |
|
Parametrii |
45 miliarde (8 experți) |
|
Cuantizarea |
4 biți |
|
Tip |
Mistral MoE |
|
Licenţă |
Apache 2.0 |
Mixtral acceptă o lungime de context de 32.000 de jetoane și depășește Llama 2 cu 70B la majoritatea benchmark-urilor, egalând sau depășind performanța GPT-3.5. Vorbește fluent mai multe limbi, inclusiv engleză, franceză, germană, spaniolă și italiană, ceea ce îl face o alegere versatilă pentru o varietate de sarcini NLP.
Wizard-Vicuna GPTQ este versiunea cuantică a Wizard Vicuna bazată pe modelul LlaMA. Spre deosebire de majoritatea LLM-urilor lansate publicului, Wizard-Vicuna este un model necenzurat cu asocierea eliminată. Aceasta înseamnă că modelul nu are aceleași standarde de siguranță și etică ca majoritatea celorlalte modele.
|
Model |
Wizard-Vicuna-30B-Uncensored-GPTQ |
|---|---|
|
Dimensiunea modelului |
16,94 GB |
|
Parametrii |
30 de miliarde |
|
Cuantizarea |
4 biți |
|
Tip |
Lamă |
|
Licenţă |
GPL 3 |
Deși poate reprezenta o problemă pentru controlul alinierii AI, a avea un LLM necenzurat scoate tot ce este mai bun din model, permițându-i să răspundă fără nicio constrângere. Acest lucru permite, de asemenea, utilizatorilor să-și adauge propria aliniere personalizată asupra modului în care AI ar trebui să acționeze sau să răspundă pe baza unui anumit prompt.

Căutați să testați un model antrenat folosind o metodă unică de învățare? Orca Mini este o implementare neoficială a lucrării de cercetare Microsoft Orca. Acest model este antrenat folosind o abordare de învățare profesor-elev, în care setul de date este umplut cu explicații în loc de doar solicitări și răspunsuri. În teorie, acest lucru ar trebui să facă studentul mai inteligent, deoarece modelul poate înțelege problema în loc să caute doar perechi de intrare și ieșire, așa cum funcționează LLM convențional.

Llama 2 este succesorul originalului Llama LLM, oferind performanță și versatilitate îmbunătățite. Varianta 13B Chat GPTQ este reglată pentru aplicații AI conversaționale optimizate pentru dialogul în limba engleză.
Unele dintre modelele enumerate mai sus vin în mai multe versiuni în ceea ce privește specificațiile. În general, versiunile cu specificații superioare produc rezultate mai bune, dar necesită hardware mai puternic, în timp ce versiunile cu specificații inferioare produc rezultate de calitate inferioară, dar pot rula pe hardware de gamă inferioară. Dacă nu sunteți sigur dacă computerul dvs. poate rula acest model, încercați mai întâi o versiune cu specificații mai mici, apoi continuați până când simțiți că scăderea performanței nu mai este acceptabilă.
În 2023, Microsoft a pariat puternic pe inteligența artificială și pe parteneriatul său cu OpenAI pentru a face din Copilot o realitate.
Nvidia tocmai a anunțat lansarea unui model de limbă mare (LLM) open-source despre care se spune că va funcționa la egalitate cu modelele proprietare de top de la OpenAI, Anthropic, Meta și Google.
Foxconn, compania cea mai cunoscută pentru fabricarea iPhone-urilor și a altor produse hardware Apple, tocmai a surprins pe toată lumea anunțând primul său model de limbă mare (LLM), numit FoxBrain, care este destinat să fie utilizat pentru a îmbunătăți producția și managementul lanțului de aprovizionare.
Te-ai săturat de eroarea frustrantă a contului de lucru Microsoft Teams care îți blochează productivitatea? Descoperă soluții dovedite, pas cu pas, pentru a o remedia rapid - golește memoria cache, resetează aplicația și multe altele. Fă Teams să funcționeze perfect chiar astăzi!
Te-ai săturat de erorile de descărcare Microsoft Teams care îți blochează fluxul de lucru în mod neașteptat? Urmărește ghidul nostru expert, pas cu pas, cu remedieri rapide și sfaturi avansate pentru a o rezolva instantaneu. Nu este necesară reinstalarea!
Te chinui cu Microsoft Teams lent? Află cum să golești memoria cache Microsoft Teams pas cu pas pentru a remedia problemele de performanță, întârzierile, blocările și a crește viteza pe Windows, Mac, web și mobil. Soluții rapide care funcționează!
Te-ai săturat de eroarea 1200 din Microsoft Teams care îți blochează apelurile telefonice? Descoperă remedieri rapide, pas cu pas, pentru iOS și Android, pentru a reveni rapid la munca în echipă fără probleme - nu sunt necesare cunoștințe tehnice!
Întâmpinați dificultăți în a vă localiza ID-ul sau detaliile contului Microsoft Teams? Acest ghid pas cu pas vă arată exact unde puteți găsi ID-ul și informațiile contului Microsoft Teams pe desktop, web, mobil și alte dispozitive, pentru o colaborare fără probleme.
Te confrunți cu eroarea „Alătură-te întâlnirii” din Microsoft Teams? Descoperă pași demonstrați pentru a o rezolva prin linkuri directe. Soluții rapide pentru o alăturare fără probleme - nu sunt necesare abilități tehnice!
Deblochează puterea Microsoft Teams în 2026 cu acest tutorial cuprinzător. Aflați sfaturi esențiale pentru colaborarea în afaceri și educație, de la configurare la funcții avansate pentru o productivitate fără probleme. Perfect atât pentru echipe, cât și pentru sălile de clasă!
Descoperiți de unde descarcă Microsoft Teams fișierele pe computer. Aflați locațiile implicite pentru Windows, Mac, Linux, cum să le schimbați și sfaturi pentru a găsi fișiere instantaneu. Economisiți timp cu acest ghid complet!
Frustrat pentru că înregistrarea ta în Microsoft Teams a eșuat? Descoperă principalele motive comune, cum ar fi problemele de permisiuni, limitele de stocare și erorile de rețea, plus remedieri pas cu pas pentru a preveni viitoarele erori și a înregistra impecabil de fiecare dată.
Vă confruntați cu o eroare de conectare la Microsoft Teams pe Chromebookuri? Descoperiți soluții pas cu pas pentru a rezolva rapid problemele de conectare. Ștergeți memoria cache, actualizați aplicațiile și multe altele pentru o muncă în echipă fără probleme. Funcționează pe cel mai recent sistem de operare Chrome!
Stăpânește cum să sincronizezi Microsoft Teams cu OneDrive pentru partajarea ușoară a fișierelor. Instrucțiuni pas cu pas, sfaturi și depanare pentru productivitate maximă în fluxul de lucru.
Frustrat(ă) pentru că lipsesc sălile de grup în cadrul întâlnirii tale Teams? Descoperă principalele motive pentru care nu poți vedea sălile de grup în Teams și urmează remedierile noastre pas cu pas pentru a le face să funcționeze fără probleme în câteva minute. Perfect atât pentru organizatori, cât și pentru participanți!
Vă confruntați cu întârzierea videoconferințelor Microsoft Teams pe Wi-Fi? Acest ghid complet de depanare oferă remedieri rapide, sfaturi avansate și optimizări Wi-Fi pentru a restabili instantaneu apeluri video clare.
Frustrat de lipsa pictogramei Microsoft Teams din Outlook? Află exact unde o găsești, de ce dispare și pașii demonstrați pentru a o restaura pentru întâlniri fără efort. Actualizat pentru cele mai recente versiuni!
Frustrat de bucla de pornire a ecranului de bun venit din Microsoft Teams? Urmați pașii noștri dovediți pentru depanarea buclei de pornire a ecranului de bun venit din Microsoft Teams: goliți memoria cache, resetați aplicația, reinstalați. Reveniți la o colaborare fără probleme în câteva minute!