c c

18:35
Comentarii Adauga Comentariu

Queen 2.5


Qwen 2.5 - 19 septembrie 2024

Qwen 2.5

Data: 19 septembrie 2024

În acest blog, explorăm detaliile noilor modele de limbaj din seria Qwen2.5 dezvoltate de Alibaba Cloud Dev Team. Echipa a creat o gamă de modele dense numai pentru decodor, șapte dintre ele fiind open-source, variind de la 0,5B la 72B parametri. Cercetările arată un interes semnificativ al utilizatorilor pentru modelele din intervalul de parametri 10-30B pentru utilizare în producție, precum și modelele 3B pentru aplicații mobile. Pentru a răspunde acestor nevoi, echipa are Qwen2.5-3B, Qwen2.5-14B și Qwen2.5-32B cu sursă deschisă. În plus, modele precum Qwen-Plus și Qwen-Turbo sunt disponibile prin serviciile API din Alibaba Cloud Model Studio.

Qwen2.5 vs Qwen2

Seria Qwen2.5 aduce mai multe upgrade-uri cheie în comparație cu seria Qwen2 :

  • Open-source la scară completă: ca răspuns la cererea puternică a utilizatorilor pentru modele din gama 10-30B pentru producție și modele 3B pentru utilizare mobilă, Qwen2.5 își extinde ofertele open-source dincolo de cele patru modele Qwen2 (0,5B, 1,5B, 7B și 72B). Acesta adaugă două modele de dimensiuni medii rentabile — Qwen2.5-14B și Qwen2.5-32B — precum și Qwen2.5-3B optimizat pentru mobil. Aceste modele sunt extrem de competitive, Qwen2.5-32B depășind Qwen2-72B și Qwen2.5-14B depășind Qwen2-57B-A14B în evaluări cuprinzătoare.
  • Set de date pre-antrenament mai mare și de calitate mai înaltă: setul de date pre-antrenament s-a extins semnificativ, crescând de la 7 trilioane de jetoane la 18 trilioane de jetoane, sporind profunzimea de antrenament a modelului.
  • Îmbunătățirea cunoștințelor: Qwen2.5 demonstrează cunoștințe mai mari în diferite benchmark-uri. De exemplu, scorurile MMLU pentru Qwen2.5-7B și Qwen2.5-72B au crescut la 74.2 și 86.1, comparativ cu 70.3 și 84.2 pentru modelele Qwen2, cu câștiguri substanțiale observate și în benchmark-uri precum GPQA, MMLU-Pro, MMLU-redux și ARC-c.
  • Îmbunătățirea codării: capacitățile de codare ale Qwen2.5 s-au îmbunătățit semnificativ datorită progreselor în Qwen2.5-Coder. Qwen2.5-72B-Instruct îl depășește pe predecesorul său pe LiveCodeBench, MultiPL-E și MBPP, cu scoruri de 55,5, 75,1 și, respectiv, 88,2, față de 32,2, 69,2 și 80,2 pentru Qwen2-72B-Instruct.
  • Îmbunătățirea matematică: Abilitatea matematică a lui Qwen2.5 a cunoscut, de asemenea, o îmbunătățire rapidă, cu scorurile la benchmarkul MATH crescând de la 52,9 și 69,0 pentru Qwen2-7B/72B-Instruct la 75,5 și 83,1 pentru modelele Qwen2.5.
  • O mai bună aliniere a preferințelor umane: Qwen2.5 generează răspunsuri mai în concordanță cu preferințele umane. De exemplu, scorul Arena-Hard pentru Qwen2.5-72B-Instruct a crescut de la 48.1 la 81.2, iar scorul MT-Bench s-a îmbunătățit de la 9.12 la 9.35, comparativ cu Qwen2-72B-Instruct.
  • Alte îmbunătățiri ale capacității de bază: modelele Qwen2.5 excelează în urmărirea instrucțiunilor, generarea de text lung (extinderea de la 1K la peste 8K jetoane), înțelegerea datelor structurate și producerea de rezultate structurate precum JSON. De asemenea, demonstrează o rezistență îmbunătățită la diverse solicitări ale sistemului, îmbunătățind jocul de rol și setarea condițiilor pentru chatbot.

Performanță și comparații

Performanță Qwen2.5-72B

Seturi de date Llama-3-70B Mixtral-8x22B Qwen2-72B Qwen2.5-72B
MMLU 79,5 77,8 84,2 86,1
MATH 42.5 41.7 50.9 62.1
HumanEval 48,2 46,3 64,6 59,1
MBPP 70,4 71,7 76,9 84,7

Concluzie

Modelele Qwen2.5 demonstrează un salt major față de generațiile anterioare și excelează în multiple domenii.

Qwen 2.5 - 19 septembrie 2024

Qwen 2.5

Data: 19 septembrie 2024

În acest blog, explorăm detaliile noilor modele de limbaj din seria Qwen2.5 dezvoltate de Alibaba Cloud Dev Team. Echipa a creat o gamă de modele dense numai pentru decodor, șapte dintre ele fiind open-source, variind de la 0,5B la 72B parametri. Cercetările arată un interes semnificativ al utilizatorilor pentru modelele din intervalul de parametri 10-30B pentru utilizare în producție, precum și modelele 3B pentru aplicații mobile. Pentru a răspunde acestor nevoi, echipa are Qwen2.5-3B, Qwen2.5-14B și Qwen2.5-32B cu sursă deschisă. În plus, modele precum Qwen-Plus și Qwen-Turbo sunt disponibile prin serviciile API din Alibaba Cloud Model Studio.

Qwen 2.5 - 19 septembrie 2024

Qwen 2.5

Data: 19 septembrie 2024

În acest blog, explorăm detaliile noilor modele de limbaj din seria Qwen2.5 dezvoltate de Alibaba Cloud Dev Team. Echipa a creat o gamă de modele dense numai pentru decodor, șapte dintre ele fiind open-source, variind de la 0,5B la 72B parametri. Cercetările arată un interes semnificativ al utilizatorilor pentru modelele din intervalul de parametri 10-30B pentru utilizare în producție, precum și modelele 3B pentru aplicații mobile. Pentru a răspunde acestor nevoi, echipa are Qwen2.5-3B, Qwen2.5-14B și Qwen2.5-32B cu sursă deschisă. În plus, modele precum Qwen-Plus și Qwen-Turbo sunt disponibile prin serviciile API din Alibaba Cloud Model Studio.

Qwen2.5 vs Qwen2

Seria Qwen2.5 aduce mai multe upgrade-uri cheie în comparație cu seria Qwen2 :

  • Open-source la scară completă: ca răspuns la cererea puternică a utilizatorilor pentru modele din gama 10-30B pentru producție și modele 3B pentru utilizare mobilă, Qwen2.5 își extinde ofertele open-source dincolo de cele patru modele Qwen2 (0,5B, 1,5B, 7B și 72B). Acesta adaugă două modele de dimensiuni medii rentabile — Qwen2.5-14B și Qwen2.5-32B — precum și Qwen2.5-3B optimizat pentru mobil. Aceste modele sunt extrem de competitive, Qwen2.5-32B depășind Qwen2-72B și Qwen2.5-14B depășind Qwen2-57B-A14B în evaluări cuprinzătoare.
  • Set de date pre-antrenament mai mare și de calitate mai înaltă: setul de date pre-antrenament s-a extins semnificativ, crescând de la 7 trilioane de jetoane la 18 trilioane de jetoane, sporind profunzimea de antrenament a modelului.
  • Îmbunătățirea cunoștințelor: Qwen2.5 demonstrează cunoștințe mai mari în diferite benchmark-uri. De exemplu, scorurile MMLU pentru Qwen2.5-7B și Qwen2.5-72B au crescut la 74.2 și 86.1, comparativ cu 70.3 și 84.2 pentru modelele Qwen2, cu câștiguri substanțiale observate și în benchmark-uri precum GPQA, MMLU-Pro, MMLU-redux și ARC-c.
  • Îmbunătățirea codării: capacitățile de codare ale Qwen2.5 s-au îmbunătățit semnificativ datorită progreselor în Qwen2.5-Coder. Qwen2.5-72B-Instruct îl depășește pe predecesorul său pe LiveCodeBench, MultiPL-E și MBPP, cu scoruri de 55,5, 75,1 și, respectiv, 88,2, față de 32,2, 69,2 și 80,2 pentru Qwen2-72B-Instruct.
  • Îmbunătățirea matematică: Abilitatea matematică a lui Qwen2.5 a cunoscut, de asemenea, o îmbunătățire rapidă, cu scorurile la benchmarkul MATH crescând de la 52,9 și 69,0 pentru Qwen2-7B/72B-Instruct la 75,5 și 83,1 pentru modelele Qwen2.5.
  • O mai bună aliniere a preferințelor umane: Qwen2.5 generează răspunsuri mai în concordanță cu preferințele umane. De exemplu, scorul Arena-Hard pentru Qwen2.5-72B-Instruct a crescut de la 48.1 la 81.2, iar scorul MT-Bench s-a îmbunătățit de la 9.12 la 9.35, comparativ cu Qwen2-72B-Instruct.
  • Alte îmbunătățiri ale capacității de bază: modelele Qwen2.5 excelează în urmărirea instrucțiunilor, generarea de text lung (extinderea de la 1K la peste 8K jetoane), înțelegerea datelor structurate și producerea de rezultate structurate precum JSON. De asemenea, demonstrează o rezistență îmbunătățită la diverse solicitări ale sistemului, îmbunătățind jocul de rol și setarea condițiilor pentru chatbot.

Performanță și comparații

Performanță Qwen2.5-72B

Seturi de date Llama-3-70B Mixtral-8x22B Qwen2-72B Qwen2.5-72B
MMLU 79,5 77,8 84,2 86,1
MATH 42.5 41.7 50.9 62.1
HumanEval 48,2 46,3 64,6 59,1
MBPP 70,4 71,7 76,9 84,7

Concluzie

Modelele Qwen2.5 demonstrează un salt major față de generațiile anterioare și excelează în multiple domenii.

Qwen2.5 vs Qwen2

Seria Qwen2.5 aduce mai multe upgrade-uri cheie în comparație cu seria Qwen2 :

  • Open-source la scară completă: ca răspuns la cererea puternică a utilizatorilor pentru modele din gama 10-30B pentru producție și modele 3B pentru utilizare mobilă...
  • Set de date pre-antrenament mai mare și de calitate mai înaltă: setul de date pre-antrenament s-a extins semnificativ...
  • Îmbunătățirea cunoștințelor: Qwen2.5 demonstrează cunoștințe mai mari în diferite benchmark-uri...
  • Îmbunătățirea codării: capacitățile de codare ale Qwen2.5 s-au îmbunătățit semnificativ...
  • Îmbunătățirea matematică: abilitatea matematică a lui Qwen2.5 a cunoscut o îmbunătățire rapidă...
  • O mai bună aliniere a preferințelor umane: Qwen2.5 generează răspunsuri mai în concordanță cu preferințele umane...
  • Alte îmbunătățiri ale capacității de bază: modelele Qwen2.5 excelează în urmărirea instrucțiunilor...

Card model Qwen2.5

Modele Params Parametrii non-Emb Straturi Capete (KV) Încorporarea cravatei Lungimea contextului Lungimea generației Licenţă
Qwen2.5-0.5B 0,49B 0,36B 24 14 / 2 Da 32K 8K Apache 2.0
Qwen2.5-1.5B 1,54B 1,31B 28 12 / 2 Da 32K 8K Apache 2.0
Qwen2.5-3B 3.09B 2,77B 36 16 / 2 Da 32K 8K Cercetarea Qwen
Qwen2.5-7B 7,61B 6,53B 28 28 / 4 Nu 128K 8K Apache 2.0
Qwen2.5-14B 14.7B 13.1B 48 40 / 8 Nu 128K 8K Apache 2.0
Qwen2.5-32B 32,5B 31.0B 64 40 / 8 Nu 128K 8K Apache 2.0
Qwen2.5-72B 72,7B 70,0B 80 64 / 8 Nu 128K 8K Qwen

Performanțe Qwen2.5

Performanța modelelor Qwen2.5 este evaluată pe o gamă largă de sarcini, incluzând matematică, codare și multilingvism.

Performanță Qwen2.5-72B

Modelul de bază Qwen2.5-72B iese în evidență prin depășirea semnificativă a altor modele din categoria sa într-un spectru larg de sarcini.

Performanță Qwen2.5-14B/32B

Modelele Qwen2.5-14B și Qwen2.5-32B oferă performanțe robuste în sarcini generale precum MMLU și BBH...

Performanță Qwen2.5-7B

Modelul Qwen2.5-7B depășește atât predecesorii, cât și concurenții săi într-o gamă largă de benchmark-uri.

Concluzii

Modelele Qwen2.5 reprezintă un progres semnificativ, oferind performanțe competitive într-o gamă variată de domenii și fiind optimizate pentru utilizare în aplicații diverse.


(Mediafax)


Linkul direct catre Petitie

CEREM NATIONALIZAREA TUTUROR RESURSELOR NATURALE ALE ROMANIEI ! - Initiativa Legislativa care are nevoie de 500.000 de semnaturi - Semneaza si tu !

Comentarii:


Adauga Comentariu



Citiți și cele mai căutate articole de pe Fluierul:

_ Ultimă oră: Igor Girkin – fost comandant al separatiștilor în Donbas – a fost condamnat la închisoare

_ Trump câștigă primarul republican din New Hampshire, apropiindu-se de revanșa lui Biden

_ Republicanii nu cedează în privința ajutorului pentru Ucraina și Israel. Strânși în jurul lui Trump ei condiționează totul de Problema migrației ilegale

_ Masele de caps-ciocan scobiți se întorc pe una dintre cele mai aglomerate plaje din Australia

_ Bugetul FY25 �mpiedică trei capacități esențiale ale armatei SUA pentru regiunea Indo-Pacific

_ Cercetătorii descoperă că inundații mari au avut loc în mod recurent în râul Pearl inferior, sudul Chinei

_ Lucrări de Sabin Bălaşa, adjudecate la suma totală de peste 80.000 de euro

_ Infamul Apophis „Zero șansă” se ciocnește cu un alt asteroid, redirecționează către Pământ

_ Judecătorul Cannon respinge cererea lui Trump de a amâna termenele limită înainte de proces în cazul documentelor clasificate... Pentru acum

_ VIDEO - Multiple victime în cartierul rău famat Bronx după ce un bărbat a deschis focul la metrou

_ Oamenii de știință investighează o modalitate mai bună de a elibera hidrogenul stocat în foile de boruri de hidrogen

_ Un puști român este erou național în Italia: va fi decorat de președintele țării, după ce a salvat viața unei femei

_ Se creează un precedent interesant: un derby se rejoacă, din cauza unei erori de arbitraj

_ Sociologul Gelu Duminică: 'TikTok a avut şi doamna Lasconi, a avut şi dl Ciucă, a avut şi dl Ciolacu. Și de ce ei n-au putut? Nu e doar TikTok'

_ Alegeri parlamentare 2024 Sălaj: Cine candidează în judeţ şi câte locuri are Sălajul în noul Parlament

_ Logodnica lui Jeff Bezos, Lauren Sanchez, se emoționează discutând despre copilăria ei

_ PRIORITĂȚI: Parisul haotic instalează paturi „anti-sex” pentru a preveni presupusele „orgii” între sportivi la viitoarele Jocuri Olimpice de vară

_ Regele Carol al III-lea are cancer și primește tratament, spune Palatul Buckingham

_ Suspans în dosarul fostului Partid Șor: Instanța s-a pomenit în situația că ar putea rămâne fără un condamnat

_ Magazinele online de cosmetice prosperă în Afganistanul talibanilor, în ciuda interzicerii saloanelor de înfrumusețare

_ Segmentul PBS susține că Trump dorește să „elimine” homosexualii din America

_ Adrian Sălăgeanu, fost internațional, a încetat din viață la vârsta de doar 56 de ani

_ Acţiunile Nvidia au înlocuit Tesla ca cele mai tranzacţionate acţiuni de pe Wall Street

_ Sunt un american care locuiește în Marea Britanie și supermarketurile tale mă încurcă - n-am auzit niciodată de o afacere de masă până acum

_ Cîțu, despre proiectul privind contribuția la sănătate: Ciolacu a dat ordin să fie oprit cu orice preț

_ A fost prins un baron al armelor de foc care îşi vindea puştile unor asasini din întreaga Europă

_ Înfrângerea de la Liverpool ar putea pune capăt speranțelor la titlul lui Man City, spune Gundogan

_ Miniștrii Acordului de la Paris trebuie să găsească soluții pentru finanțarea ajutorului climatic

_ Punct de vedere: Casele de licitații din Marea Britanie mai vând rămășițe umane și este timpul să se oprească

_ Marte și Jupiter devin prietenoși pe cerul nopții. Planetele nu se vor apropia atât de mult până în 2033

_ „O problemă globală”: un adolescent american se luptă cu pornografia falsă care vizează elevele

_ Coaliția Procurorilor Generali dosarează Amicus Brief care îl apără pe Ken Paxton și pe adjunctul său principal

_ Reuşită istorică: Simone Tempestini a câştigat prima etapă a Campionatului European de Raliuri

_ Dă-mi Leicester peste Londra! De ce mii de proprietari renunță la creșterea prețurilor caselor din capitală și se îngrămădesc în aceste 10 orașe

_ FC Barcelona: Joan Laporta a acceptat decizia antrenorului Xavi de a părăsi banca tehnică la finele sezonului

_ Simulările pe supercomputer ale super-diamantului sugerează o cale către crearea acestuia

_ Primarul Piedone anunță că va da în judecată ANI: Rea-credință, îngrădirea dreptului la apărare, manipularea intenției de vot

_ Erupția Vulcanică din Islanda scade în intensitate

_ Chiar și Muzeul Militar și Biblioteca Pritzker fug din Illinois

_ Confiscarea bunurilor rusești: Senatul SUA a aprobat legea

_ John Fetterman nu este politicianul progresist pe care toată lumea credea că este

_ Căpitanul francez Dalin conduce când Vendee Globe trece de Capul Bunei Speranțe

_ Beijingul declară că a monitorizat zborul militar american deasupra strâmtorii Taiwan sensibile din punct de vedere politic

_ Unul dintre cei mai mari producători de cărbune din lume vrea să renunțe la extracție: Care este motivul autorităților din această țară

_ Platforma Bluesky atinge 20 de milioane de utilizatori

_ Incendiu într-un apartament de la etajul 12, în Capitală, pornit de la o lumânare. Un om a murit

_ El este următorul sfânt al României: Este propus pentru canonizare anul viitor

_ Se va face dreptate? În cadrul experimentului TV de ultimă oră pentru a vedea dacă putem avea încredere în jurii noștri că ajung la același verdict în procesul de „crimă” a bărbatului care și-a ucis soția, dar susține că și-a pierdut controlul

_ Legislatorul sugerează că Iranul este pregătit pentru testarea armelor nucleare

_ VIDEO - Israelul mai primește o lovitură dură, după atacul Iranului: o bază militară a fost atacată de Hezbollah

_ Prețurile gazelor naturale din Texas devin negative, deoarece fororii urmăresc vânzările de petrol

_ AUR mai pierde un senator

_ Inculpatul din Georgia Harrison Floyd o prinde pe Fani Willis într-o nouă crimă! – Îi dă până luni după-amiază pentru a se recunoaște de la cazul RICO sau de a face acuzații!

_ Real Madrid a solicitat acordul UEFA pentru închiderea acoperişului stadionului la meciul cu Manchester City

_ Rezerva Federală refuză să furnizeze înregistrări ale deținerilor străine de aur

_ Cinci membri ai organizației umanitare World Central Kitchen, inclusiv polonezi și australieni, mor într-un atac aerian israelian

_ Folosind tehnologia CRISPR, cercetătorii reușesc să cultive roșii care consumă mai puțină apă fără a compromite randamentul

_ München şi masacrul din '72: mesajul pro-Hamas din satul olimpic a fost şters

_ Cele șapte chei ale triumfului președintelui Trump

_ O artistă de origine română, în finală pentru a expune la The Forth Plinth din Londra


Pag.1 Pag.2 Pag.3 Pag.4 Pag.5 Pag.6 Pag.7
Pag.8 Pag.9 Pag.10 Pag.11 Pag.12 Pag.13 Pag.14 Pag.15
Pag.16 Pag.17 Pag.18 Pag.19 Pag.20 Pag.21 Pag.22 Pag.23
Pag.24 Pag.25 Pag.26 Pag.27 Pag.28 Pag.29 Pag.30 Pag.31
Pag.32 Pag.33 Pag.34 Pag.35 Pag.36 Pag.37 Pag.38 Pag.39
Pag.40 Pag.41

Nr. de articole la aceasta sectiune: 2448, afisate in 41 pagini.