14:17 2024-02-10
crimes - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ Sunt un expert în inteligență artificială - iată 5 moduri simple prin care inteligența artificială ar putea ucide rasa umană și poate face omenirea să dispară_ Sunt un expert AI - aici sunt 5 moduri ușoare prin care inteligența artificială ar putea ucide rasa umană și face omenirea să disparăDe la Terminator la The Matrix, roboții ucigași au fost multă vreme un element de bază terifiant al științei- filme de ficțiune. Dar, deși ar putea fi demne de sperie în cinema, ar trebui să ne fie frică de o IA proastă? De la urgii supraalimentate la anihilarea nucleară completă, experții spun că există cinci moduri Ben Eisenpress, director de operațiuni la Future of Life Institute, a avertizat MailOnline că „toate riscurile catastrofale ale inteligenței artificiale sunt în prezent subestimate”. Așadar, dacă tot crezi că AI- Apocalipsa nu este altceva decât un film învechit, citiți mai departe pentru a vedea cât de îngrijorat ar trebui să fiți cu adevărat. Când vă gândiți la AI care duce la distrugerea umanității, ucigașul O îngrijorare este că creăm o inteligență artificială atât de puternică încât umanitatea își pierde capacitatea de a o controla, ceea ce duce la consecințe nedorite. Până de curând, acesta nu era altceva decât un dispozitiv de complot. pentru filme și un exercițiu teoretic pentru tehnologi. Dar acum, odată cu progresele rapide pe care le vedem în IA, domnul Eisenpress spune că acest scenariu nu mai pare atât de îndepărtat. El spune : „Intelligenția artificială necinstită, în care IA scapă de controlul uman și provoacă daune larg răspândite, este un risc real.’ 'Trebuie să vedem unde AI merge, nu doar unde este astăzi. În ultimii ani s-au înregistrat descoperiri uluitoare. Experții prevăd că vor veni mai multe.” Dar chiar și în acest scenariu cel mai științifico-fantastic, o IA necinstită nu va arăta deloc ca Skynetul lui Terminator. Dl Eisenpress a spus: „Spre deosebire de science-fiction, un AI nu trebuie să aibă sentimente de conștiință sau de simțire pentru a deveni necinstiți. „Este suficient să-i oferi AI un obiectiv nelimitat, cum ar fi „creșterea vânzărilor” noi pe această cale.' Într-un experiment de gândire clasic, conceput de filozoful Nick Bostrom, ne imaginăm că cerem unui AI super-inteligent să facă cât mai multe agrafe posibil. Acest lucru Inteligența artificială ar putea considera cu ușurință că ar putea face mult mai multe agrafe dacă nimeni nu o oprește. Cea mai bună modalitate de a evita acest lucru este pur și simplu să elimini umanitatea și să ne transformi în agrafe în timp ce ea. Un scenariu nu trebuie să fie atât de extrem ca acesta pentru a fi periculos, ideea este pur și simplu că AI scăpa rapid de sub control chiar și atunci când i se oferă instrucțiuni simple. Așa cum explică domnul Eisenpress: „Un obiectiv nelimitat va împinge AI să caute putere, deoarece mai multă putere ajută la atingerea obiectivelor. „AI-urile din ce în ce mai capabile care obțin mai multă putere se vor termina prost în mod implicit.” Deocamdată, AI în sine s-ar putea să nu fie de fapt cel mai mare pericol - problema mai mare este ce pot crea oamenii cu AI. „Pe termen scurt, bio-terorismul activat de AI este probabil una dintre cele mai grave amenințări din cauza dezvoltării necontrolate a AI', spune domnul Eisenpress. Și nu este singurul în preocupările sale. Recent, prim-ministrul Rishi Sunak a folosit summitul privind siguranța AI în Bletchley Park să tragă un semnal de alarmă cu privire la armele biologice asistate de IA. Un document de discuție guvernamental despre „Frontier AI”, un termen pentru cea mai avansată IA, a avertizat că „AI aproape sigur va continua să reducă barierele intrare pentru actorii de amenințări mai puțin sofisticați. La fel, Dario Amodei, fondatorul companiei de inteligență artificială Anthropic, a avertizat congresul american că inteligența artificială ar putea ajuta criminalii să creeze arme biologice în termen de doi până la trei ani. Cercetătorii au descoperit că un instrument conceput pentru descoperirea de medicamente benefice ar putea În mai puțin de șase ore, IA a prezis mai mult de 40.000 de noi molecule toxice – mult mai periculoase decât armele chimice existente. Dl Eisenpress spune îngrijorarea lui este că „actorii răi”, cum ar fi grupurile teroriste, vor putea reutiliza aceste instrumente pentru a declanșa ciumă devastatoare sau atacuri chimice. „AI este deja capabilă să creeze molecule toxice și să creeze programe malware avansate, și poate ajuta chiar la planificarea atacurilor biologice”, a spus el. „Modelele mai avansate vor fi și mai puternice și, prin urmare, și mai periculoase în mâna greșită”. În 1995, un Cultul apocaliptic numit Aum Shinrikyo a eliberat gaz sarin mortal în metroul din Tokyo. Acest atac a ucis 13 persoane și a rănit aproape 6.000, cu scopul de a aduce sfârșitul lumii. Cu AI. instrumente care permit descoperirea și fabricarea de arme și mai mortale, teama este că un grup precum Aum Shinrikyo ar putea dezlănțui ceva și mai periculos. Așa cum mulți cercetători AI fac eforturi pentru a face modelele lor „open source”. „, domnul Eisenpress avertizează că este nevoie de prudență. Pe de o parte, punerea la dispoziție a modelelor pentru toți ar putea supraalimenta efectele pozitive ale inteligenței artificiale, cum ar fi descoperirea de noi medicamente sau optimizarea sistemelor agricole pentru a lupta împotriva foametei. Dar, pe de altă parte, aceste modele ar putea fi folosite și pentru a crea arme mai periculoase decât orice s-a întâlnit umanitatea înainte. El spune: „Modelele cu sursă deschisă sunt un în special în ceea ce privește perspectiva, în special având în vedere că cercetătorii au arătat că va fi trivial să eliminați orice măsuri de protecție care sunt încorporate pentru a preveni o astfel de utilizare greșită.' Pentru a înțelege de ce lăsarea unui program de calculator prost înțeles să ruleze ar putea fi devastatoare, nu este nevoie să speculăm cu privire la viitor. În 2017, sistemele informatice neînrudite din întreaga lume Cel mai mare port de containere din India a fost blocat, sistemul de monitorizare a radiațiilor de la Centrala Nucleară de la Cernobîl a fost offline, iar băncile, firmele farmaceutice și spitalele au pierdut brusc controlul asupra sistemelor lor. Vinovatul a fost virusul NotPetya, o armă cibernetică creată foarte probabil de armata rusă pentru a ataca Ucraina. Dar când virusul s-a scurs, s-a răspândit mult mai mult decât se așteptau creatorii săi, ceea ce a condus la aproximativ 10 miliarde de dolari. (7,93 miliarde de lire sterline) daune. La fel ca în cazul armelor biologice, IA va supraîncărca capacitatea armelor cibernetice la noi niveluri de distrugere. În mod îngrijorător, este posibil ca acest proces să fi avut deja a început. Departamentul de Stat al SUA a avertizat: „Am observat că unii actori din Coreea de Nord și alți state naționale și criminali încearcă să folosească modele AI pentru a accelera scrierea de software rău intenționat și pentru a găsi sisteme de exploatat”. Există, de asemenea, îngrijorarea că actorii răi pot dezlănțui în mod deliberat o IA necinstită în lume. Anul trecut, cercetătorii de la Centrul pentru Siguranța AI au scris: „Eliberează AI puternice și le permitem. a lua măsuri independent de oameni ar putea duce la o catastrofă.' Cercetătorii au subliniat că la numai o lună de la lansarea lui GPT-4, un proiect open-source a ocolit deja filtrele de siguranță pentru a crea un agent instruit să „distrugă umanitatea”, „să stabilească dominația globală”. , și „atinge nemurirea”. „Denumit ChaosGPT, IA a compilat cercetări privind armele nucleare și a trimis tweet-uri încercând să-i influențeze pe alții”, au spus cercetătorii. Din fericire, acest agent nu avea capacitatea de a pirata computere, de a supraviețui sau de a se răspândi, dar a venit ca un avertisment important cu privire la riscurile de AI rău intenționat. Poate una dintre cele mai îngrijorătoare temeri în jurul AI este că sistemele pe care le construim pentru a ne proteja ar putea deveni distrugerea noastră. Războiul modern se bazează pe colectarea și procesarea unor cantități mari de informații. Câmpurile de luptă devin rețele enorme de senzori și factori de decizie și un atac devastator poate sosi mai repede decât oricând. Din acest motiv, armatele lumii încep acum să ia în considerare implementarea AI în sistemele lor de luare a deciziilor. Ministerul Strategia de inteligență artificială a apărării din 2022 a apărării a avertizat că aceasta ar putea „impozita limitele înțelegerii umane și adesea necesită răspunsuri la viteza mașinii”. Raportul a concluzionat că Regatul Unit „trebuie să adopte și să exploateze AI în ritm. și amploare.” Dar dl Eisenpress spune că încorporarea AI în sistemele noastre militare poate duce la pericole și mai mari, mai ales în cazul armelor nucleare. La fel ca în „WarGames” clasice din 1983, folosirea inteligenței artificiale pentru a controla armele nucleare ar putea duce la un război nuclear. El a spus: „Sistemele AI de astăzi sunt în mod inerent nefiabile, capabile să ia decizii inexplicabile și „halucinante”. „Integrarea AI în sistemele de comandă și control nuclear este destabilizatoare”. O îngrijorare este că luarea rapidă a deciziilor de către AI ar putea duce la mici erori, identificarea greșită a unei aeronave, de exemplu, escaladând rapid într-un război deplin. Odată ce AI a făcut eroarea inițială, AI diferitelor națiuni ar putea reacționa între ele mai repede decât ar putea controla orice om, ceea ce duce la un „război fulger”. „Chiar dacă din punct de vedere tehnic există un „om în buclă”, nu ne putem baza pe factorii de decizie pentru a trece peste o recomandare de lansare potențial eronată generată de AI, având în vedere astfel de mize existențiale”, conchide domnul Eisenpress.  ; Gândul la un război termonuclear indus de IA este terifiant. Dar dacă omenirea nu se termină cu o bubuitură, ci cu un scâncet? Domnul Eisnepress spune că într-un mod în care s-ar putea să ne poticnim spre sfârșitul umanității așa cum o știm este printr-o preluare lentă, tăcută și tăcută. „Dezîmputernicirea IA graduală” spune povestea modului în care oamenii ar putea preda treptat controlul asupra lumii noastre către AI, fără un singur moment dramatic”, a spus el. De la tranzacții financiare la proceduri legale, multe sarcini au fost deja transferate AI. Dl Eisenpress a spus: „De-a lungul timpului, IA va deveni integrată în tot mai multe sisteme, inclusiv în cele esențiale pentru modul nostru de viață. „Companii sau partide politice care refuză să utilizeze AI. va pierde în fața celor care o fac, creând o cursă spre fund. Încetul cu încetul, oamenii vor avea mai puțin control asupra lumii.” În cele din urmă, domnul Eisenpress spune: „Am putea să ne aflăm la cheremul AI, fără să ne dăm seama măcar de ce se întâmplă.” Pentru a înțelege riscul cu care ne confruntăm, domnul Eisenpress spune să privim, nu spre viitor, ci spre trecut. El a spus: „Neputerea este rezultatul implicit atunci când apare o entitate mai inteligentă și mai capabilă. ; doar întreabă-i pe oamenii de Neanderthal. „Au prosperat sute de mii de ani, doar pentru a dispărea rapid când oamenii moderni au intrat în scenă”. Domnul Eisenpress încheie cu un citat din Alan Turing, fondatorul calculului modem, care a scris în 1915: „Nu va dura mult să ne depășim puterile slabe... Prin urmare, la un moment dat, ar trebui să ne așteptăm mașinile să preia controlul.”
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu