18:35
Comentarii Adauga Comentariu

Queen 2.5


Qwen 2.5 - 19 septembrie 2024

Qwen 2.5

Data: 19 septembrie 2024

În acest blog, explorăm detaliile noilor modele de limbaj din seria Qwen2.5 dezvoltate de Alibaba Cloud Dev Team. Echipa a creat o gamă de modele dense numai pentru decodor, șapte dintre ele fiind open-source, variind de la 0,5B la 72B parametri. Cercetările arată un interes semnificativ al utilizatorilor pentru modelele din intervalul de parametri 10-30B pentru utilizare în producție, precum și modelele 3B pentru aplicații mobile. Pentru a răspunde acestor nevoi, echipa are Qwen2.5-3B, Qwen2.5-14B și Qwen2.5-32B cu sursă deschisă. În plus, modele precum Qwen-Plus și Qwen-Turbo sunt disponibile prin serviciile API din Alibaba Cloud Model Studio.

Qwen2.5 vs Qwen2

Seria Qwen2.5 aduce mai multe upgrade-uri cheie în comparație cu seria Qwen2 :

  • Open-source la scară completă: ca răspuns la cererea puternică a utilizatorilor pentru modele din gama 10-30B pentru producție și modele 3B pentru utilizare mobilă, Qwen2.5 își extinde ofertele open-source dincolo de cele patru modele Qwen2 (0,5B, 1,5B, 7B și 72B). Acesta adaugă două modele de dimensiuni medii rentabile — Qwen2.5-14B și Qwen2.5-32B — precum și Qwen2.5-3B optimizat pentru mobil. Aceste modele sunt extrem de competitive, Qwen2.5-32B depășind Qwen2-72B și Qwen2.5-14B depășind Qwen2-57B-A14B în evaluări cuprinzătoare.
  • Set de date pre-antrenament mai mare și de calitate mai înaltă: setul de date pre-antrenament s-a extins semnificativ, crescând de la 7 trilioane de jetoane la 18 trilioane de jetoane, sporind profunzimea de antrenament a modelului.
  • Îmbunătățirea cunoștințelor: Qwen2.5 demonstrează cunoștințe mai mari în diferite benchmark-uri. De exemplu, scorurile MMLU pentru Qwen2.5-7B și Qwen2.5-72B au crescut la 74.2 și 86.1, comparativ cu 70.3 și 84.2 pentru modelele Qwen2, cu câștiguri substanțiale observate și în benchmark-uri precum GPQA, MMLU-Pro, MMLU-redux și ARC-c.
  • Îmbunătățirea codării: capacitățile de codare ale Qwen2.5 s-au îmbunătățit semnificativ datorită progreselor în Qwen2.5-Coder. Qwen2.5-72B-Instruct îl depășește pe predecesorul său pe LiveCodeBench, MultiPL-E și MBPP, cu scoruri de 55,5, 75,1 și, respectiv, 88,2, față de 32,2, 69,2 și 80,2 pentru Qwen2-72B-Instruct.
  • Îmbunătățirea matematică: Abilitatea matematică a lui Qwen2.5 a cunoscut, de asemenea, o îmbunătățire rapidă, cu scorurile la benchmarkul MATH crescând de la 52,9 și 69,0 pentru Qwen2-7B/72B-Instruct la 75,5 și 83,1 pentru modelele Qwen2.5.
  • O mai bună aliniere a preferințelor umane: Qwen2.5 generează răspunsuri mai în concordanță cu preferințele umane. De exemplu, scorul Arena-Hard pentru Qwen2.5-72B-Instruct a crescut de la 48.1 la 81.2, iar scorul MT-Bench s-a îmbunătățit de la 9.12 la 9.35, comparativ cu Qwen2-72B-Instruct.
  • Alte îmbunătățiri ale capacității de bază: modelele Qwen2.5 excelează în urmărirea instrucțiunilor, generarea de text lung (extinderea de la 1K la peste 8K jetoane), înțelegerea datelor structurate și producerea de rezultate structurate precum JSON. De asemenea, demonstrează o rezistență îmbunătățită la diverse solicitări ale sistemului, îmbunătățind jocul de rol și setarea condițiilor pentru chatbot.

Performanță și comparații

Performanță Qwen2.5-72B

Seturi de date Llama-3-70B Mixtral-8x22B Qwen2-72B Qwen2.5-72B
MMLU 79,5 77,8 84,2 86,1
MATH 42.5 41.7 50.9 62.1
HumanEval 48,2 46,3 64,6 59,1
MBPP 70,4 71,7 76,9 84,7

Concluzie

Modelele Qwen2.5 demonstrează un salt major față de generațiile anterioare și excelează în multiple domenii.

Qwen 2.5 - 19 septembrie 2024

Qwen 2.5

Data: 19 septembrie 2024

În acest blog, explorăm detaliile noilor modele de limbaj din seria Qwen2.5 dezvoltate de Alibaba Cloud Dev Team. Echipa a creat o gamă de modele dense numai pentru decodor, șapte dintre ele fiind open-source, variind de la 0,5B la 72B parametri. Cercetările arată un interes semnificativ al utilizatorilor pentru modelele din intervalul de parametri 10-30B pentru utilizare în producție, precum și modelele 3B pentru aplicații mobile. Pentru a răspunde acestor nevoi, echipa are Qwen2.5-3B, Qwen2.5-14B și Qwen2.5-32B cu sursă deschisă. În plus, modele precum Qwen-Plus și Qwen-Turbo sunt disponibile prin serviciile API din Alibaba Cloud Model Studio.

Qwen 2.5 - 19 septembrie 2024

Qwen 2.5

Data: 19 septembrie 2024

În acest blog, explorăm detaliile noilor modele de limbaj din seria Qwen2.5 dezvoltate de Alibaba Cloud Dev Team. Echipa a creat o gamă de modele dense numai pentru decodor, șapte dintre ele fiind open-source, variind de la 0,5B la 72B parametri. Cercetările arată un interes semnificativ al utilizatorilor pentru modelele din intervalul de parametri 10-30B pentru utilizare în producție, precum și modelele 3B pentru aplicații mobile. Pentru a răspunde acestor nevoi, echipa are Qwen2.5-3B, Qwen2.5-14B și Qwen2.5-32B cu sursă deschisă. În plus, modele precum Qwen-Plus și Qwen-Turbo sunt disponibile prin serviciile API din Alibaba Cloud Model Studio.

Qwen2.5 vs Qwen2

Seria Qwen2.5 aduce mai multe upgrade-uri cheie în comparație cu seria Qwen2 :

  • Open-source la scară completă: ca răspuns la cererea puternică a utilizatorilor pentru modele din gama 10-30B pentru producție și modele 3B pentru utilizare mobilă, Qwen2.5 își extinde ofertele open-source dincolo de cele patru modele Qwen2 (0,5B, 1,5B, 7B și 72B). Acesta adaugă două modele de dimensiuni medii rentabile — Qwen2.5-14B și Qwen2.5-32B — precum și Qwen2.5-3B optimizat pentru mobil. Aceste modele sunt extrem de competitive, Qwen2.5-32B depășind Qwen2-72B și Qwen2.5-14B depășind Qwen2-57B-A14B în evaluări cuprinzătoare.
  • Set de date pre-antrenament mai mare și de calitate mai înaltă: setul de date pre-antrenament s-a extins semnificativ, crescând de la 7 trilioane de jetoane la 18 trilioane de jetoane, sporind profunzimea de antrenament a modelului.
  • Îmbunătățirea cunoștințelor: Qwen2.5 demonstrează cunoștințe mai mari în diferite benchmark-uri. De exemplu, scorurile MMLU pentru Qwen2.5-7B și Qwen2.5-72B au crescut la 74.2 și 86.1, comparativ cu 70.3 și 84.2 pentru modelele Qwen2, cu câștiguri substanțiale observate și în benchmark-uri precum GPQA, MMLU-Pro, MMLU-redux și ARC-c.
  • Îmbunătățirea codării: capacitățile de codare ale Qwen2.5 s-au îmbunătățit semnificativ datorită progreselor în Qwen2.5-Coder. Qwen2.5-72B-Instruct îl depășește pe predecesorul său pe LiveCodeBench, MultiPL-E și MBPP, cu scoruri de 55,5, 75,1 și, respectiv, 88,2, față de 32,2, 69,2 și 80,2 pentru Qwen2-72B-Instruct.
  • Îmbunătățirea matematică: Abilitatea matematică a lui Qwen2.5 a cunoscut, de asemenea, o îmbunătățire rapidă, cu scorurile la benchmarkul MATH crescând de la 52,9 și 69,0 pentru Qwen2-7B/72B-Instruct la 75,5 și 83,1 pentru modelele Qwen2.5.
  • O mai bună aliniere a preferințelor umane: Qwen2.5 generează răspunsuri mai în concordanță cu preferințele umane. De exemplu, scorul Arena-Hard pentru Qwen2.5-72B-Instruct a crescut de la 48.1 la 81.2, iar scorul MT-Bench s-a îmbunătățit de la 9.12 la 9.35, comparativ cu Qwen2-72B-Instruct.
  • Alte îmbunătățiri ale capacității de bază: modelele Qwen2.5 excelează în urmărirea instrucțiunilor, generarea de text lung (extinderea de la 1K la peste 8K jetoane), înțelegerea datelor structurate și producerea de rezultate structurate precum JSON. De asemenea, demonstrează o rezistență îmbunătățită la diverse solicitări ale sistemului, îmbunătățind jocul de rol și setarea condițiilor pentru chatbot.

Performanță și comparații

Performanță Qwen2.5-72B

Seturi de date Llama-3-70B Mixtral-8x22B Qwen2-72B Qwen2.5-72B
MMLU 79,5 77,8 84,2 86,1
MATH 42.5 41.7 50.9 62.1
HumanEval 48,2 46,3 64,6 59,1
MBPP 70,4 71,7 76,9 84,7

Concluzie

Modelele Qwen2.5 demonstrează un salt major față de generațiile anterioare și excelează în multiple domenii.

Qwen2.5 vs Qwen2

Seria Qwen2.5 aduce mai multe upgrade-uri cheie în comparație cu seria Qwen2 :

  • Open-source la scară completă: ca răspuns la cererea puternică a utilizatorilor pentru modele din gama 10-30B pentru producție și modele 3B pentru utilizare mobilă...
  • Set de date pre-antrenament mai mare și de calitate mai înaltă: setul de date pre-antrenament s-a extins semnificativ...
  • Îmbunătățirea cunoștințelor: Qwen2.5 demonstrează cunoștințe mai mari în diferite benchmark-uri...
  • Îmbunătățirea codării: capacitățile de codare ale Qwen2.5 s-au îmbunătățit semnificativ...
  • Îmbunătățirea matematică: abilitatea matematică a lui Qwen2.5 a cunoscut o îmbunătățire rapidă...
  • O mai bună aliniere a preferințelor umane: Qwen2.5 generează răspunsuri mai în concordanță cu preferințele umane...
  • Alte îmbunătățiri ale capacității de bază: modelele Qwen2.5 excelează în urmărirea instrucțiunilor...

Card model Qwen2.5

Modele Params Parametrii non-Emb Straturi Capete (KV) Încorporarea cravatei Lungimea contextului Lungimea generației Licenţă
Qwen2.5-0.5B 0,49B 0,36B 24 14 / 2 Da 32K 8K Apache 2.0
Qwen2.5-1.5B 1,54B 1,31B 28 12 / 2 Da 32K 8K Apache 2.0
Qwen2.5-3B 3.09B 2,77B 36 16 / 2 Da 32K 8K Cercetarea Qwen
Qwen2.5-7B 7,61B 6,53B 28 28 / 4 Nu 128K 8K Apache 2.0
Qwen2.5-14B 14.7B 13.1B 48 40 / 8 Nu 128K 8K Apache 2.0
Qwen2.5-32B 32,5B 31.0B 64 40 / 8 Nu 128K 8K Apache 2.0
Qwen2.5-72B 72,7B 70,0B 80 64 / 8 Nu 128K 8K Qwen

Performanțe Qwen2.5

Performanța modelelor Qwen2.5 este evaluată pe o gamă largă de sarcini, incluzând matematică, codare și multilingvism.

Performanță Qwen2.5-72B

Modelul de bază Qwen2.5-72B iese în evidență prin depășirea semnificativă a altor modele din categoria sa într-un spectru larg de sarcini.

Performanță Qwen2.5-14B/32B

Modelele Qwen2.5-14B și Qwen2.5-32B oferă performanțe robuste în sarcini generale precum MMLU și BBH...

Performanță Qwen2.5-7B

Modelul Qwen2.5-7B depășește atât predecesorii, cât și concurenții săi într-o gamă largă de benchmark-uri.

Concluzii

Modelele Qwen2.5 reprezintă un progres semnificativ, oferind performanțe competitive într-o gamă variată de domenii și fiind optimizate pentru utilizare în aplicații diverse.


(Mediafax)


Linkul direct catre Petitie

CEREM NATIONALIZAREA TUTUROR RESURSELOR NATURALE ALE ROMANIEI ! - Initiativa Legislativa care are nevoie de 500.000 de semnaturi - Semneaza si tu !

Comentarii:


Adauga Comentariu



Citiți și cele mai căutate articole de pe Fluierul:

_ Tot ce poate merge prost cu sânii tăi - și ce să faci în privința asta: ghidul definitiv al DR PHILIPPA KAYE

_ Olimpiada ASF: pot participa toți elevii din clasa a VII-a până în clasa a XII-a

_ Judecătorul Beltway care audiază cazurile Trump și soțul ei anti-Trump și anti-Kavanaugh

_ De câţi bani avem nevoie pentru a fi fericiți: un terapeut financiar ne dezvăluie suma și mantrele ce trebuiesc rostite pentru a aduce bunăstarea

_ Adina Diaconu - Suntem bucuroase pentru calificarea la JO de la Paris, însă nu vrem să ne oprim aici

_ Horoscopul zilei de 23 februarie 2024. Leii trebuie să caute fericirea

_ Smith cade cu Australia cu 62-1 la prânz în primul test din Noua Zeelandă

_ Fani Scrambles: Fulton DA cere judecătorului să respingă probele de la telefonul mobil

Donald Trump cere eliberarea lui Marine Le Pen și să fie lăsată să candideze. Nici un cuvânt despre anularea alegerilor și nici despre Călin Georgescu spre satisfacția sorosistilor și a slugilor lor care au dat Lovitura de Stat in România

_ Cum lumea plantelor modelează ciclul climatic

Prăbușirea criptomonedelor TerraUS și LUNA s-a datorat unui grup restrâns de speculanți care au pariat "short"

_ Tesla Shares Slide As Price-Cuts In US, China, & Germany Spark Worsening EV Price-War 

_ Un cunoscut afacerist din Constanța a murit în Thailanda: A căzut în gol de la balcon

_ Ultima insultă a lui Rolf Harris la adresa victimelor sale: starul de dizgrație a murit fără bani după ce „și-a șters averea de 16 milioane de lire sterline, astfel încât să nu fie nevoit să plătească despăgubiri”

Explicația pe scurt a Tarifelir vamale impuse de Trump și cât de mult ajută economia americană

_ Ultimă oră: PSD Timiș a transferat un lot substanțial de primari de la PNL!

_ O ALĂ clinică de fertilitate este zguduită de o „vină” sfâșietoare a înghețării ovulelor, pe fondul temerilor că gafa ar fi putut răpi zeci de femei britanice șansa de a avea copii

_ Ministerul Finanțelor, reacție la victoria în cazul Roșia Montană: 'România dorește publicarea integrală a hotărârii arbitrale'

_ Ultimă oră – Transnistria a cerut ajutorul Rusiei: ce acuză Tiraspolul

_ Iluziile din Davos și Dubai, partea a treia: alternative la energia eoliană și solară

_ Jay-Z este elegant în costum negru alături de Fat Joe, Queen Latifah și Dez Bryant, în timp ce conduc vedete la petrecerea Roc Nation Sports Super Bowl din Las Vegas

_ Accident mortal în Dolj. Un șofer a intrat cu mașina într-un cap de pod, după ce a pierdut controlul autoturismului

_ Compania din spatele paharelor virale Stanley este dat în judecată în mai multe state după ce a recunoscut că unele dintre pahare conțin plumb

_ Guvernul suplimentează şi finanţarea Programului naţional 'Masă sănătoasă

_ High Street pune speranțe într-o Vinerea Neagră și un impuls de Crăciun după scăderea post-bugetă

_ Afaceri ca de obicei pentru campionul mondial Verstappen în testele de F1

_ Biden spune că medicii i-au spus că arată �prea t�năr� după ce a fost făcut fizic

_ Directorul CNAIR: Un nou sector din autostrada Bucureşti-Braşov (A3) intră în linie dreaptă

_ Mahmut Orhan, Claptone, Shimza, GORDO şi Grigoré, pe scena principală Massif

_ „Independenții” dezamăgiți trage în jos sentimentul consumatorilor în martie

_ Comisia Europeană contestă cifrele șefei EPPO, Laura Codruţa Kövesi: 'Ar trebui să fie mulţumiţi că am trimis acea scrisoare!'

_ Biologii folosesc învățarea automată pentru a clasifica fosilele de polen dispărut

_ Biden se așteaptă să emită un ordin executiv la graniță în câteva săptămâni

_ Preşedintele lui Bayern Munchen, încrezător într-un succes în Liga Campionilor

Romania - Numărul de Profesori la Numărul de Elevi

_ Nikolai Rîjkov, prim-ministru al URSS în timpul perestroikăi, a încetat din viaţă la 94 de ani

_ Ugly 2Y Cozi la licitație pe măsură ce dimensiunea crește la un record de 63 de miliarde de dolari

_ Universitatea Columbia dă polițiștilor polițiștilor din New York undă verde pentru a aresta protestatarii anti-israeli care ocupă campusul

_ Rennes, la un pas să dea lovitura pe Parc des Princes, în campionatul Franţei

_ Horner de la Red Bull se confruntă cu o audiere pentru un presupus comportament inadecvat

_ Urmările războiului din Ucraina: Turcia a devenit exportator de grâu

_ ADN-ul din fecalele conservate dezvăluie mediul intestinului antic japonez

_ Creșterea votului prin corespondență: o comoditate sau o cale către fraudă?

_ Motociclete şi scuterele, interzise noaptea la Paris? Propunerea unui consilier

_ Spectacol uimitor de drone cu tematică Super Bowl luminează cerul deasupra Las Vegasului

_ „Dacă acest lucru este real, ai greșit”: Rețelele de socializare se dezlănțuie din cauza transformărilor „înfricoșătoare” ale medicului TikTok înainte și după liftinguri de 50.000 USD

_ Problemele de la Marea Roșie amenință recuperarea transportului de marfă din SUA

_ A murit Robert Badinter, ministrul francez care a abolit pedeapsa cu moartea

_ Temu și TikTok axe încălzitoare ieftine la vânzare în magazinele lor online după Care? ancheta descoperă că ar putea lua foc sau chiar exploda

_ Națiunile asiatice sărbătoresc Anul Nou Lunar al Dragonului

_ China se pregătește de război: așa mobilizare nu s-a mai văzut de 50 de ani

_ Rețeaua labirintică a traficanților de droguri și coșmarul noilor opioide

_ Vin picant: un nou studiu dezvăluie că vechii romani ar fi avut gusturi deosebite

_ Statul Lagos intervine pentru a atenua criza costului vieții din Nigeria

_ Cercetarea oferă o perspectivă asupra construirii rețelelor de reglementare a genelor

_ Scamatoria rusească care a speriat Europa: mișcări importante la granița cu România

_ Uranus și Neptun au luni secrete: oamenii de știință descoperă trei sateliți nedetectați anterior în sistemul nostru solar

_ Deblocarea secretelor universului: noi descoperiri în undele gravitaționale

_ Românul Vlad Darie a câștigat aproape 300.000 de dolari la un turneu de Poker

_ „Bebe quasari”: Telescopul spațial James Webb observă mici giganți în trecutul profund


Pag.1 Pag.2 Pag.3 Pag.4 Pag.5 Pag.6 Pag.7
Pag.8 Pag.9 Pag.10 Pag.11 Pag.12 Pag.13 Pag.14 Pag.15
Pag.16 Pag.17 Pag.18 Pag.19 Pag.20 Pag.21 Pag.22 Pag.23
Pag.24 Pag.25 Pag.26 Pag.27 Pag.28 Pag.29 Pag.30 Pag.31
Pag.32 Pag.33 Pag.34 Pag.35 Pag.36 Pag.37 Pag.38 Pag.39
Pag.40 Pag.41 Pag.42 Pag.43 Pag.44 Pag.45 Pag.46 Pag.47
Pag.48 Pag.49 Pag.50 Pag.51 Pag.52 Pag.53 Pag.54 Pag.55
Pag.56 Pag.57 Pag.58 Pag.59 Pag.60 Pag.61 Pag.62 Pag.63
Pag.64 Pag.65 Pag.66 Pag.67 Pag.68 Pag.69 Pag.70 Pag.71
Pag.72 Pag.73 Pag.74 Pag.75 Pag.76 Pag.77 Pag.78 Pag.79
Pag.80 Pag.81 Pag.82 Pag.83 Pag.84 Pag.85 Pag.86 Pag.87
Pag.88 Pag.89 Pag.90 Pag.91 Pag.92 Pag.93 Pag.94 Pag.95
Pag.96 Pag.97 Pag.98 Pag.99 Pag.100 Pag.101 Pag.102 Pag.103
Pag.104 Pag.105 Pag.106 Pag.107 Pag.108 Pag.109 Pag.110 Pag.111
Pag.112

Nr. de articole la aceasta sectiune: 6684, afisate in 112 pagini.