onlyfuckvideos.net classy slut goo covered. xxx247.club xxxfamousvideos.com

Inteligjenca e re artificiale

“Modelet e mëdha bazë” po përshpejtojnë përparimin e Inteligjencës Artificiale. Ato mund të kenë aftësi që krijuesit e tyre nuk i kishin parashikuar, shkruan The Economist

Graphcore, projektues britanik i çipave, synon të ndërtojë të ashtuquajturin “kompjuter i mirë” gjatë viteve të ardhshme. Ky kompjuter është modeluar që të kryejë 1019 llogaritje në sekondë.

Nëse laptopi juaj mund të kryejë 100 miliardë llogaritje në sekondë – norma për një laptop mesatar – atëherë “kompjuteri i mirë” do të jetë 100 milionë herë më i shpejtë.

Kjo e bën atë dhjetë herë më të shpejtë se Frontier, një gjigant i cili u rendit në krye të listës më të fundit “Top 500” të superkompjuterëve më të fuqishëm në botë.

Memoria prej katër petabajtësh e “kompjuterit të mirë”, do të mbartë ekuivalentin e 2 trilionë faqesh teksti të shtypur, ose një grumbull letre A4, mjaftueshëm të lartë për të arritur deri në Hënë. Duket se ky kompjuter është më se “i mirë”.

Por emri nuk përdoret si vlerësim cilësor: ai nderon një trashëgimi intelektuale. Kompjuteri është emëruar sipas Jack Good, i cili ka punuar me Alan Turing, si një deshifrues kodesh gjatë Luftës së Dytë Botërore.

Në vitin 1965, Good shkroi një artikull me ndikim, ku argumentoi se ku mund të arrijë kjo fushë e re: “Spekulimet në lidhje me makinën e parë ultrainteligjente”. Graphcore dëshiron që “kompjuteri i mirë” të jetë një makineri ultra inteligjente, ose të paktën të jetë një hap i madh në këtë drejtim.

Kjo nënkupton ndërtimin dhe zbatimin e modeleve të Inteligjencës Artificiale (AI) me një numër të jashtëzakonshëm “parametrash” – koeficientë të aplikuar për llogaritjet e ndryshme brenda programit. Katër vite më parë, 110 milionë parametrat e ndërtuara nga një model i ri i quajtur BERT, e bënë atë një model me famë.

Programet më të përparuara të Inteligjencës Artificiale në ditët e sotme, janë 10,000 herë më të mëdha, me mbi 1 trilion parametra. Ambiciet e mëdha të kompjuterit “të mirë” synojnë të ekzekutojnë programe me rreth 500 trilionë parametra.

Një nga gjërat mbresëlënëse për këtë zhvillim të pabesueshëm, është se kohët e fundit, kishte filluar të përhapej ideja se në fakt, shtimi i parametrave në modele po arrinte një pikë kthese rënëse. Por përvoja me modele si Bert, dëshmoi të kundërtën.

Teksa modele të tilla bëhen më të mëdha duke i ushqyer me më shumë të dhëna dhe duke rritur numrin e parametrave, ato bëhen gjithnjë e më të mira. “Ishte befasuese”, thotë Oren Etzioni, i cili drejton Institutin Allen për Inteligjencën Artificiale, një grup kërkimor.

Modelet e reja kanë tejkaluar shumë nga modelet më të vjetra, në detyra si, sugjerimi i fjalëve të ardhshme në një email ose emërtimi i elementeve që janë të pranishme në një imazh.

Ato gjithashtu shfaqën aftësi të reja që krijuesit e tyre nuk i kishin pritur. Këto nuk janë gjithmonë mbresëlënëse. Për shembull, të bësh aritmetikë, duket e parëndësishme. Këtë mund ta bëjë fare mirë edhe një makinë e thjeshtë llogaritëse, e krijuar para 50 vjetësh.

Por ato makina llogaritëse ishin krijuar posaçërisht për këtë qëllim; për aftësinë e tyre për të treguar se sa bëjnë 17 plus 83, jo për ta përfshirë këtë shumë si një efekt anësor i padukshëm i analizimit të modeleve në tekst. Kjo e fundit, është një aftësi e jashtëzakonshme.

Proceset tekst-për-imazh janë gjithashtu mbresëlënëse. Ilustrimi në krye të këtij artikulli u krijua duke përdorur titullin dhe rubrikën e artikullit, si një kërkesë për një shërbim të Inteligjencës Artificiale, të quajtur Midjourney. Ilustrimi tjetër portretizon “spekulimet në lidhje me makinën e parë ultrainteligjente”.

Nocionet abstrakte nuk prodhojnë gjithmonë ilustrime që kanë shumë kuptim. Emrat më pak abstraktë japin ide më të qarta.

Kur sistemi Midjourney mëson se si të krijojë imazhe, ai mëson gjithashtu se cilat fjalë duhet të lidhen me tiparet apo veçoritë që po merr. Kjo do të thotë se kur merr një mesazh me emrin e një artisti, ai do të gjenerojë një imazh me një “stil” të cilin e ka mësuar vetë që ta lidhë me atë emër; e njëjta gjë vlen edhe për fjalët që përshkruajnë veprat artistike.

Këtu luan rol të rëndësishëm edhe një tjetër veçori shumë premtuese: fleksibiliteti. Sistemet e mëparshme të Inteligjencës Artificiale, shërbenin vetëm për një qëllim, shpesh një qëllim mjaft specifik.

Ndërsa tani, modelet e reja mund të ripërcaktohen për të kaluar me lehtësi relative nga një lloj problemi në një tjetër, falë një akordimi të imët. Brenda industrisë, këto quhen “modele bazë”.

Inteligjenca e re artificiale

Kjo aftësi për të bazuar një sërë mjetesh të ndryshme në një model të vetëm, po ndryshon jo vetëm atë që mund të bëjë Inteligjenca Artificiale, por edhe mënyrën se si ajo funksionon si një biznes.

“Modelet e Inteligjencës Artificiale dikur ishin shumë spekulative dhe artizanale, por tani janë bërë të parashikueshme”, shpjegon Jack Clark, bashkëthemelues i firmës startup Anthropic. Inteligjenca Artificiale po hyn në epokën industriale.

E shkuara na tregon se kjo do të ketë ndikime potencialisht të mëdha ekonomike. Në vitet 1990, historianët ekonomikë filluan të diskutojnë mbi “teknologjitë me qëllime të përgjithshme” (GPT) si faktorë kyç që nxisin rritjen afatgjatë të produktivitetit.

Veçoritë kryesore të këtyre teknologjive, ishin: përmirësimi i shpejtë i teknologjisë bazë, zbatimi i gjerë nëpër sektorë, nxitja e risive të reja në produkte, shërbime dhe praktika biznesi. Mendoni për makinat e shtypjes, motorët me avull dhe motorët elektrikë.

Arritjet e modeleve të reja kanë bërë që Inteligjenca Artificiale të duket më shumë se kurrë si një teknologji me qëllime të përgjithshme.

Zoti Etzioni vlerëson se më shumë se 80% e kërkimit në Inteligjencën Artificiale, tani përqendrohet në modelet bazë, aq sa u kushton atyre edhe Kevin Scott, shefi i teknologjisë i Microsoft. Kompania e tij ka një sërë modelesh të tilla, ashtu si dhe rivalët e saj kryesorë, Meta dhe Alphabet, kompanitë mëmë të Facebook dhe Google.

Tesla po ndërton një model të madh për të përparuar me objektivin e saj për makinat me vetëdrejtim. Edhe firmat startup po hyjnë në lojë.

Vitin e kaluar, kapitalistët e sipërmarrjes në Amerikë, investuan një rekord prej 115 miliardë dollarësh në kompanitë e Inteligjencës Artificiale, sipas PitchBook, ofrues i të dhënave. Wu Dao tregon se Kina po e bën këtë fushë prioritet kombëtar.

Disa shqetësohen se përhapja e shfrenuar e teknologjisë do të përqendrojë më tej fuqinë ekonomike dhe politike dhe mund të mbjellë paragjykime gjithnjë e më të thella në funksionimin e automatizuar të shoqërisë. Ekzistojnë edhe shqetësime në lidhje me modelet “mashtruese” ndërsa ato po bëhen gjithnjë e më të mëdha.

“Ne po ndërtojmë një supermakinë përpara se të kemi shpikur timonin”, paralajmëron Ian Hogarth, sipërmarrës britanik dhe bashkautor i raportit vjetor “Gjendja e Inteligjencës Artificiale”, i lexuar gjerësisht.

Fei-Fei Li, bashkëdrejtori i Institutit për Inteligjencën Artificiale në Universitetin Stanford, shpjegon pse modelet bazë përfaqësojnë një “fazë të re në Inteligjencën Artificiale”.

Të gjitha modelet moderne të mësimit të makinerive, mbështeten në “rrjetet nervore” – një programim i cili imiton mënyrat në të cilat qelizat e trurit ndërveprojnë me njëra-tjetrën.

Parametrat e tyre përshkruajnë peshat e lidhjeve midis këtyre neuroneve virtuale, pra peshat që modelet zhvillojnë përmes procesit të provës dhe gabimit, ndërkohë që “trajnohen” për t’iu përgjigjur inputeve specifike sipas llojit të rezultateve që dëshirojnë projektuesit e tyre.

Për dekada me radhë, rrjetat nervore ishin interesante në parim, por jo shumë të përdorura në praktikë.

Përparimi i Inteligjencës Artificiale në fund të viteve 2000 dhe në fillim të viteve 2010, erdhi sepse kompjuterët ishin bërë mjaft të fuqishëm për të drejtuar kompjuterë të mëdhenj dhe interneti siguroi sasi të mëdha të të dhënave trajnuese, që kërkoheshin për rrjete të tilla.

Një shembull janë fotografitë që etiketohen se përmbajnë mace, dhe që përdoren për të trajnuar një model për njohjen e kafshëve. Sistemet e krijuara në këtë mënyrë, mund të bënin gjëra që asnjë program nuk i kishte arritur më parë, p.sh. të siguronin përkthime të përafërta të tekstit, të interpretonin me besueshmëri komandat e folura dhe të njihnin të njëjtën fytyrë në foto të ndryshme.

Rol të rëndësishëm në këtë përparim luajti edhe fuqia përpunuese. Mësimi i makinerive përdor kryesisht çipa të quajtur “njësi përpunimi grafik” (GPU) të krijuara për videolojëra nga firma si Nvidia, jo vetëm sepse fuqia e tyre përpunuese është e lirë, por edhe sepse aftësia e tyre për të kryer shumë llogaritje paralelisht, i bën ato shumë të përshtatshme për rrjetat nervore. Gjatë viteve 2010, performanca e GPU-ve u përmirësua me ritëm mbresëlënës.

Në një studim të titulluar “Vëmendja është gjithçka që ju nevojitet”, studiuesit në Google dhe në Universitetin e Torontos, përshkruan arkitekturën e re të softuerit që do të përdorej nga versioni Bert i Google.

Ata kishin hedhur poshtë të gjithë mekanizmat që punonin në të dhënat hyrëse në mënyrë sekuenciale, mekanizma që studiuesit i kishin konsideruar më parë si thelbësorë; dhe në vend të kësaj, thjesht përdorën një mekanizëm që i rrokte gjërat njëkohësisht.

Modelet

Modele të tilla trajnohen, duke përdorur një teknikë të quajtur mësim i vetëmbikëqyrur, në vend të grupeve të të dhënave të etiketuara paraprakisht. Ndërsa gërmojnë nëpër grumbuj tekstesh, ata fshehin fjalë specifike nga vetja dhe më pas hamendësojnë, në bazë të tekstit përreth, se cila duhet të jetë fjala e fshehur.

Pas disa miliarda ciklesh “hamendësim-krahasim-përmirësim-mendim”, kjo qasje nga Mad-Libs, i jep një fuqi të re statistikore një shprehjeje nga J.R. Firth, një gjuhëtar i shekullit XX: “Do ta njihni një fjalë nga fjalët që ka përreth”.

Që atëherë ka rezultuar se të gjitha këto teknika të zgjuara, mund të aplikohen në të dhëna sekuenciale që nuk kanë të bëjnë vetëm me gjuhën dhe që përfshijnë fotografitë, videot, madje edhe grupe të mëdha të të dhënave molekulare.

Në vend që të hamendësojnë kombinimin e ardhshëm të shkronjave, modelet grafike si dall-e nga Openai, parashikojnë grupin tjetër të pikselëve.

Zbulimi se këto modele funksionojnë më mirë, sa më të mëdha që të bëhen, nxiti përparimin. Ky zbulim erdhi me prezantimin e sistemit GPT-3 të firmës Openai, në vitin 2020. Paraardhësi i tij, GPT-2, i krijuar një vit më parë, ishte ushqyer me 40 gigabajt të dhëna (7000 libra të pabotuar fantastiko-shkencorë) dhe kishte 1.5 miliardë parametra.

Ndërsa GPT-3 gëlltiti 570 gigabajt (edhe më shumë libra dhe një pjesë të madhe të internetit, duke përfshirë të gjithë Wikipedia-n) dhe krenohet me 175 miliardë parametra. Trajnimi i tij kërkonte shumë më tepër burime.

Aftësia më praktike dhe e shpejtë, ishte shkrimi i kodit kompjuterik. Duke u ekspozuar ndaj internetit, sistemi GPT-3 ra në kontakt me shumë kode. Ai u trajnua në programim në të njëjtën mënyrë siç u trajnua për të shkruar në mënyrë koherente gjuhën angleze.

Dy shërbime të bazuara në sistemin GPT-3, Codex dhe Copilot, tani synojnë të kthejnë përshkrimet e programuesve mbi diçka që ata duan, në kodin për arritjen e saj.

Kjo nuk funksionon gjithmonë. Por nëse i jepen detyra të përshkruara lehtësisht, që janë diskrete dhe të kufizuara, dhe mund të veprojnë si blloqe ndërtimi për skema më të mëdha, atëherë ka më shumë shanse për sukses.

Tashmë nuk kalon një javë pa u shpallur një model i ri nga një firmë apo një tjetër. Në fillim të prillit, Google krijoi Palm, një sistem me 540 miliardë parametra, që e tejkalon GPT-3 në disa metrika.

Gjithashtu, në mënyrë të jashtëzakonshme, ai mund të shpjegojë edhe shakatë. Të ashtuquajturat modele multi-modale po shtohen gjithashtu. Në maj, DeepMind, një startup në pronësi të Google, lançoi Gato, një sistem, i cili, pasi është trajnuar për një gamë të përshtatshme të dhënash, mund të luajë video lojëra, të kontrollojë një krah robotik, si dhe të gjenerojë tekst.

Meta ka filluar të zhvillojë një “Model Botëror” edhe më ambicioz që do të grumbullojë të dhëna si lëvizjet e fytyrës dhe sinjale të tjera trupore. Ideja është të krijohet një motor për të fuqizuar “metaverse” e ardhshëm të firmës.

Të gjitha këto janë lajme të mira për prodhuesit e çipave. Lulëzimi i Inteligjencës Artificiale është një nga gjërat që e kanë bërë Nvidia-n projektuesin më të vlefshëm në botë të gjysmëpërçuesve, me vlerë tregu 468 miliardë dollarë.

Është gjithashtu një lajm i mirë për firmat startup që e kthejnë prodhimin e modeleve të fondacionit në produkte. Birchai, i cili synon të automatizojë mënyrën se si dokumentohen bisedat në qendrat e thirrjeve të lidhura me kujdesin shëndetësor, po përshtat një model, të cilin një prej themeluesve të tij, Yinhan Liu, e krijoi gjatë kohës kur punonte në kompaninë Meta.

Kompanitë po përdorin sistemin GPT-3 për të ofruar një sërë shërbimesh. Viable e përdor atë për të ndihmuar firmat të analizojnë reagimet e klientëve; Fable Studios krijon histori interaktive; Elicit i ndihmon njerëzit t’u përgjigjen drejtpërdrejt pyetjeve kërkimore bazuar në punimet akademike.

Modelet bazë mund të përdoren për të distiluar edhe kuptimin nga të dhënat e korporatës, si regjistrat e ndërveprimeve me klientët ose leximet e sensorëve në dyqane, thotë Dario Gil, kreu i divizionit të kërkimit në IBM.

Fernando Lucini, i cili përcakton axhendën në Accenture, një tjetër firmë e madhe e teknologjisë, parashikon ngritjen e “modeleve bazë të industrisë”, të cilat në të ardhmen do të njohin të dhëna si, bazat e sistemit bankar ose prodhimit të makinave dhe do ta bëjnë këtë informacion të disponueshëm për klientët që paguajnë online.

Pritshmëritë

Pritshmëritë e larta për këtë teknologji në të gjithë ekonominë, duken të besueshme. Por është e rëndësishme të shqyrtojmë edhe dëmin që mund të bëjnë këto zhvillime, përpara se të përdoren në jetën e përditshme.

Një punim i botuar në mars 2021, ofron një pasqyrë të qartë të shqetësimeve dhe gjithashtu bëri që një nga autoret, Timnit Gebru, të humbiste vendin e punës në Google. “Ne e pamë se fusha nuk e vinte në diskutim idenë ‘sa më e madhe, aq më mirë’ dhe ndiem nevojën të tërhiqemi”, shpjegon Emily Bender nga Universiteti i Uashingtonit, autore tjetër e punimit.

Studimi i tyre ngre argumente të rëndësishme. Njëri është se modelet mund të shtojnë më pak vlerë se ç’duket. Një tjetër është se disa të dhëna, si pyetjet me premisa të pakuptimta, shkaktojnë trillime dhe jo pranime të humbjes apo mosdijes.

Dhe megjithëse nuk kanë monopol mbi paragjykimet algoritmike, sasia e të dhënave online që ata thithin, mund t’i çorientojë modelet bazë. Kur i jepet një sinjal mbi një veprim nga myslimanët, sistemi GPT-3 ka shumë më tepër gjasa të kërkojë një skenar të dhunshëm, në krahasim me besimet e tjera. Kjo është e tmerrshme për çdo model. Është edhe më keq për modelet që synojnë të bëhen gurë themeli për shumë të tjerë.

Prodhuesit e modeleve po zhvillojnë teknika të ndryshme për të parandaluar që kanali i tyre të dalë jashtë binarëve, duke filluar nga trajtimi më i mirë i të dhënave, deri tek “skuadrat e kuqe”. Shumë gjithashtu kufizojnë aksesin në fuqinë e plotë të modeleve.

Openai u kërkon përdoruesve që të vlerësojnë rezultatet nga GPT-3 dhe më pas i kthen ato vlerësime në model, një proces që quhet “të mësuarit përforcues me reagime njerëzore”. Studiuesit në Stanford janë duke punuar në zhvillimin e një bisturie virtuale, që synon të heqë qafe neuronet “e këqija”.

Paragjykimet në stimujt e fushës mund të jenë më të vështirë për t’u trajtuar. Shumica e atyre që janë të përfshirë —teknologë, drejtues dhe nganjëherë politikanë — dëshirojnë modele më të fuqishme. Ato shihen si rruga drejt lavdeve akademike, parave apo prestigjit kombëtar.

Fusha është e përqendruar në provat e standardizuara, duke i shpërfillur vlerësimet më cilësore, si dhe ndikimin social të teknologjisë.

Erik Brynjolfsson, ekonomist në Stanford, shqetësohet se një fiksim me shkallën dhe aftësitë, do t’i shtyjë shoqëritë drejt asaje që ai e quan “kurthi Turing”. Ai argumenton në një ese të kohëve të fundit, se ky fokus nxit automatizimin e aktiviteteve njerëzore duke përdorur forcën brutale llogaritëse, në një kohë kur qasjet alternative mund të përqendrohen në plotësimin e asaj çka bëjnë njerëzit.

Dhe ndërsa më shumë njerëz po humbasin vendet e punës, ata nuk do të jenë shumë entuziastë ndaj idesë së automatizimit, dhe pasuria dhe pushteti do të përqendrohen gjithnjë e më tepër.

Një lloj përqendrimi është tashmë i dukshëm: vini re rolet e luajtura nga Google dhe Microsoft si zhvillues të modeleve dhe si pronarë të sistemeve të mëdha Cloud ku ato dhe modele të tjera mund të funksionojnë. Askush nuk mund të ndërtojë një model bazë në një garazh. Graphcore dëshiron të shesë “kompjuterë të mirë” për më shumë se 100 milionë dollarë.

Në mënyrë egoiste, drejtuesit e firmës Nvidia tashmë po debatojnë mbi modele që do të kushtojnë 1 miliard dollarë për t’u trajnuar. Disa kompani vazhdojnë t’i bëjnë modelet e tyre me burim të hapur, dhe kështu janë të disponueshme falas; Bert është një i tillë, siç është një version me 30 miliardë parametra, i një modeli nga Meta.

Por sot duhet një fuqi e konsiderueshme për të drejtuar qoftë edhe një model të vogël. Dhe trajnimi i një modeli të ri kërkon shumë më tepër fuqi kompjuterike, sesa ekzekutimi i një modeli ekzistues.

“Tashmë institucionet e kanë të vështirë të ndjekin ritmin”, paralajmëron zoti Clark nga Anthropic. Openai, e themeluar si një organizatë jofitimprurëse me qëllimin për të siguruar që Inteligjenca Artificiale të zhvillohet në mënyra më miqësore për njerëzit, krijoi një kompani me “fitim të kufizuar” në të cilën, të tjerët mund të investojnë për të grumbulluar paratë e nevojshme për të vazhduar punën në modele të mëdha (Microsoft ka hedhur 1 miliard dollarë).

Edhe një universitet jashtëzakonisht i mirëpajisur, si Stanford, nuk mund ta përballojë ndërtimin e superkompjuterëve të Nvidia-s. Instituti i tij kërkimor po kërkon të ndërtojë një “Cloud të Kërkimit Kombëtar” të financuar nga qeveria, për t’u siguruar universiteteve fuqi kompjuterike dhe grupe të dhënash, në mënyrë që fusha të mos përfundojë duke u mbizotëruar tërësisht nga axhendat kërkimore të kompanive private.

Historia e informatikës na tregon se sa më shumë përdorues dhe zhvillues të anojnë drejt një platforme të caktuar – qoftë një sistem operativ apo një rrjet social – aq më tërheqës bëhet ajo për përdoruesit dhe zhvilluesit e tjerë.

Interesat kombëtare mund të nxisin gjithashtu centralizimin —deri në njëfarë pike. Ekspertët thonë se modeli më i mirë bazë i Kinës është ai që krijuesit e kanë emërtuar ERNIE. Por ai që po mbahet si kampion kombëtar është Wu Dao.

Në Francë, qeveria po ofron energji kompjuterike falas për BigScience, një nismë europiane për të ndërtuar një model shumëgjuhësh me burim të hapur, me 176 miliardë parametra. A është e mundur që në të ardhmen të krijohet një Modèle Republicain, i aftë për të shprehur të gjitha hollësitë e gjuhës dhe kulturës franceze?

Këtu do të hyjë në lojë edhe siguria kombëtare. Shërbime si Copilot mund të përdoren për të ndërtuar viruse kompjuterike shumë të dëmshme dhe për t’i lançuar ato në botë (edhe pse zoti Scott i Microsoft këmbëngul se Copilot nuk lejohet të shkruajë kode të caktuara).

Qeveritë do të mbajnë nën vëzhgim aftësi të tilla, dhe disa do të duan t’i përdorin ato. Modelet bazë që mund të krijojnë strategji për konsulentët e korporatave, mund të jenë në gjendje të bëjnë të njëjtën gjë edhe për gjeneralët; nëse mund të krijojnë transmetime realiste videosh, mund të krijojnë edhe keqinformata; nëse mund të krijojnë art, mund të krijojnë edhe propagandë.

Disa nga zhvilluesit e modeleve duken gjithnjë e më të shqetësuar. “Covid-19 na ka mësuar se eksponencialet lëvizin shumë shpejt”, thotë Connor Leahy, një nga drejtuesit e Eleuther, një projekt ambicioz me burim të hapur. “Imagjinoni nëse dikush në Google ndërton një Inteligjencë Artificiale, e cila mund të ndërtojë një tjetër Inteligjencë Artificiale më të mirë, dhe pastaj kjo e fundit ndërton një edhe më të mirë, dhe kjo gjë mund të shkojë shumë larg”.

Reeps One, kompozitor britanik, emri i vërtetë i të cilit është Harry Yeff, ka trajnuar një model duke i ushqyer atij orë të tëra të vokalizimeve të veta beatbox. Mënyra se si modeli reagon kur e dëgjon, mundëson atë që Yeff e quan një “bisedë me makinerinë”. Modeli madje ka krijuar tinguj të rinj që zoti Yeff më pas ka mësuar vetë që t’i imitojë. “Shumë artistë do ta përdorin këtë mjet për t’u bërë më të aftë në punën e tyre”, parashikon ai.

Mjetet e transkriptimit të bazuara në Inteligjencën Artificiale e kanë bërë tashmë shumë më të lehtë një aspekt veçanërisht të lodhshëm të gazetarisë; a mund të vlejë e njëjta gjë edhe për fushat e tjera? Për të hetuar, korrespondenti i The Economist i kërkoi një kandidateje për doktoraturë në Stanford, të quajtur Mina Lee, që të krijonte një mjet shkrimi të bazuar në GPT-3, me emrin “CoAuthor”, duke përdorur 100 artikujt më të fundit të korrespondentit për The Economist dhe një sërë materialesh mbi inteligjencën artificiale nga një prej kurseve të universitetit.

Korrespondenti më pas u konsultua vazhdimisht me këtë “EconoBot” gjatë shkrimit të këtij artikulli. Përvoja ishte vërtet interesante. Shpesh, EconoBot sugjeronte se fjalia nuk kishte brumë, por ndonjëherë edhe jepte ide se si të përfundohej një fjali ose një paragraf.

Kur ne i përcollëm EconoBot fjalinë: “Modelet bazë janë të shkëlqyera për gazetarët”, ai kishte për të thënë këtë: Ata bëjnë pjesën më të madhe të të kuptuarit se për çfarë është një histori”. Por ndonjëherë, një histori e mirë ka nevojë për më shumë sesa thjesht një model bazë.

Ajo ka nevojë për diçka që të nxisë procesin e të shkruarit, diçka që ndez imagjinatën e gazetarit dhe ofron një rrugë të qartë drejt shkrimit. Pra, modelet më të mira nuk janë vetëm parashikuese, por edhe frymëzuese./Përgatiti: Monitor/

watch porn
olalaporno.com