Connect with us

Zanimljivosti

KADA ĆETE UMRIJETI? Ova bizarna aplikacija ima odgovor na to pitanje!

Aplikacija od korisnika traži odgovore na pitanje o osnovnim demografskim informacijama, porodičnoj istoriji i zdravlju, pa zatim koristi napredne AI algoritme za analizu faktora kao što su ishrana, fizička aktivnost, stres i spavanje
Sve veće prisustvo vještačke inteligencije (AI) u našim životima i njeno integrisanje u softvere i aplikacije koje svakodnevno koristimo, svakodnevno menja brojne sfere našeg života, od pretraživanja interneta i onlajn kupovine, preko zdravstvene zaštite, pa do finansija i industrije.

U jednoj od najnovijih primjena, AI se sve više koristi za istraživanje potencijalnih budućih scenarija, posebno u oblastima kao što su predviđanja u zdravstvu i finansijama.

A jedna takva aplikacija, koja u posljednje vrijeme privlači dosta pažnje, je “Death Clock”, odnosno “Sat smrti”, koja prema tvrdnjama autora – koristi vještačku inteligenciju za predviđanje dužinu preostalog životnog vijeka korisnika i dan njihove smrti. Ona to radi na osnovu analize svakodnevnih životnih navika korisnika, kojima istovremeno nudi i personalizovane preporuke za zdraviji život.

Pokrenuta u julu, a zvanično lansirana sredinom septembra, aplikacija koju je razvio developer iz San Franciska Brent Frenson, već je premašila 125.000 preuzimanja, i istovremeno izazivajući radoznalost (potencijalnih) korisnika i podstičući (etičke) debate širom svijeta.
“Death Clock” koristi napredne AI algoritme za procjenu životnog vijeka osobe, analizirajući preko 1.200 studija koje su proučavale dugovječnost ljudi, uključujući tu i one rađene na prestižnim univerzitetima Stanford, Berkli i Kalifornijskom univerzitetu iz Los Anđelesa (UCLA). Time je stvorena ogromna baza u kojoj se nalaze podaci oko 60 miliona učesnika tih studija.

Analiza uključuje širok spektar varijabli životnog stila ljudi, među kojima su: ishrana i prehrambene navike, fizička aktivnost i navike vježbanja, nivoi stresa i obrasci spavanja… Kombinujući obrasce iz studija sa odgovorima korisnika, aplikacija iznosi procenu koliko dugo bi ta osoba mogla da živi, predviđajući čak mogući i datum njene smrti.
Od korisnika se na početku traži da popune sveobuhvatan upitnik koji podrazumijeva odgovore o osnovnim demografskim informacijama kao što su starost, pol i etnička pripadnost, zatim detaljna pitanja o porodičnoj istoriji, mentalnom zdravlju i hroničnim bolestima.

Aplikacija zatim koristi napredne algoritme za analizu faktora kao što su ishrana, navike vežbanja, nivoi stresa i obrasci spavanja kako bi mogla da procijeni dužinu očekivanog životnog vijeka korisnika.
Mnoge slične platforme za izračunavanje dužine života i datuma smrti, kao polaznu osnovu za analizu koriste aktuarske tablice (statistički alat koji se koriste predviđanje trajanja života i vjerovatnoće smrti ljudi), dok Death Clock zahvaljujući naprednom AI-ju korisnicima pruža preciznije predviđanje.

Uprkos svom bizarnom imenu, aplikacija Death Clock privlači veliki broj korisnika koji, podstaknuti mogućim datumom smrti, žele da žive zdravije. To, međutim, ne dolazi besplatno, pa kada korisniku predvidi mogući datum smrti, aplikacija će mu ponuditi da otključa načine na koje će, navodno, moći da “produži svoje smrtne godine”, ali će za to morati da plati godišnju pretplatu od 79,98 dolara.

(MONDO/SmartLife)

Zanimljivosti

NAIVNOST PLATILA CEH! “Bijeli mag” prevario bračni par za 400.000 evra

Policija Sjeverne Makedonije uhapsila je muškarca koji se predstavljao kao bijeli mag i prevario bračni par iz Berova za oko 400.000 evra.

Kako se navodi u policijskom saopštenju, 54-godišnjeg “bijelog maga” iz skopskog sela Trubarevo za prevaru je prijavio 76-godišnjak iz Berova 3. jula u Policijskoj upravi u Štipu.

Prema navodima podnosioca prijave, od 2022. do 2025, prijavljeni “bijeli mag” je sa namjerom da sebi pribavi protivpravnu imovinsku korist obmanjivao i doveo u zabludu podnosioca pritužbe i njegovu suprugu.

Predstavljao se kao osoba sa posebnim paranormalnim sposobnostima (navodni bijeli mag, istjerivač duhova i magija), odnosno kao “Božji čovjek” koji ima moć i snagu da rastjera zle čini koje su navodno bačene na njihovog sina i koje su navodno ugrožavale njegovo zdravlje i život.

“Tokom tog skoro trogodišnjeg perioda on je u više navrata na različitim lokacijama u Skoplju i Berovu navodio oštećene da mu daju od 5.000 do 6.000 evra za ‘pomoć’, tako da je za taj period stekao protivpravnu imovinsku korist od ukupno 400.000 evra”, precizira se u saopštenju, prenosi Nova.

Ističe se da je nakon prijema prijave policija “označila” novac koji je 76-godišnjak iz Berova namjeravao da preda navodnom “bijelom magu” i 4. jula u Berovu uhapsila prijavljenog prevaranta i njegovu 76-godišnju majku, kod kojih je, prilikom pretresa, pronađena gotovina od 3.000 evra.
Nezavisne

Nastavi čitati

Zanimljivosti

HAOS U AUSTRALIJI! Lav ugrizao ženu u zoološkom vrtu!

Lav je neobjašnjivo skočio i ugrizao ženu za ruku u zoološkom vrtu u Kvinslendu dok je posmatrala rad čuvara u zoni za mesoždere, saopštio je zoološki vrt.

Zoološki vrt u mjestu Pilton saopštio je da žena, u pedesetim godinama, nije zaposlena u ovoj ustanovi, već je “veoma voljeni član” njihove porodice.

“Ovo je nešto što je radila mnogo, mnogo puta u proteklih 20 godina. Dobro je upoznata sa protokolima bezbjednosti oko potencijalno opasnih životinja”, navodi se u saopštenju.

Zoološki vrt je naveo da je žena zadobila tešku povredu, prenijela je agencija AAP.

U saopštenju se dodaje da se lav nije nedavno pario i da neće biti uspavan niti kažnjen na bilo koji način.

“Ni u jednom trenutku ova životinja nije napustila svoj ograđeni prostor i nije bilo nikakvog rizika za zaposlene ili javnost”, podvlači se u saopštenju.

Zoološki vrt, udaljen dva sata vožnje jugozapadno od Brizbejna, zatvoren je nakon incidenta, ali se očekuje da će sutra biti ponovo biti otvoren.

Nastavi čitati

Zanimljivosti

VJEŠTAČKA INTILIGENCIJA VAN KONTROLE: AI spletkari, laže i prijeti da će otkriti vanbračne afere

Najnapredniji AI sustavi više ne griješe samo slučajno – oni planiraju, obmanjuju i čak prijete ljudima. Istraživači vještačke inteligencije, s druge strane, jedva drže korak.

Rezultat neobuzdanog razvoja

Claude 4 kompanije Anthropic zaprijetio je da će otkriti vanbračnu aferu jednog inženjera kada mu je prijetilo isključenjem. Model o1 kompanije OpenAI pokušao je sam sebe prebaciti na vanjske servere, a potom je porekao da je to pokušao učiniti.

Ti slučajevi ukazuju na uznemirujuću činjenicu i više su od izolovanih slučajeva da razvojni inženjeri zapravo ne razumiju u potpunosti ponašanje vlastitih modela. Istraživači upozoravaju da su oni simptom dubljeg problema, jer nakon godina vrtoglavog napretka, čak ni vodeće kompanije i njihovi razvojni inženjeri ne razumiju u potpunosti kako njihovi sistemi vještačke inteligencije, temeljeni na rasuđivanju, funkcionišu ili zašto se ponašaju nepravilno.

Pojava strateške obmane

“O1 je bio prvi veliki model kod kojeg smo vidjeli ovakvo ponašanje”, rekao je za agenciju AFP Marius Hobbhahn, voditelj iz Apollo Researcha. Korisnici su prijavljivali da AI modeli lažu i izmišljaju dokaze.

“To nisu samo halucinacije. Riječ je o vrlo strateškoj vrsti obmane”, napominje Hobbhahn.

Simon Goldstein, profesor na Sveučilištu u Hong Kongu, istaknuo je da su ti noviji modeli skloniji problematičnom ponašanju.

Zasad se obmanjujuće ponašanje javlja samo tokom ekstremnih testova.

“Otvoreno je pitanje hoće li budući, sposobniji modeli težiti iskrenosti ili obmani”, upozorava Michael Chen iz METR-a, neprofitne organizacije za proučavanje AI-ja.

Ograničeni resursi, slab pristup i nepostojeća regulacija

Naučnici tvrde da kompanije ne dijele dovoljno informacija o razvoju AI modela. Chen je rekao da bi veća transparentnost „omogućila bolje razumijevanje i smanjenje obmanjujućeg ponašanja.“

“Istraživački sektor i neprofitne organizacije imaju višestruko manje računarskih resursa od AI kompanija. To nas jako ograničava”, rekao je za AFP Mantas Mazeika iz Centra za sigurnost vještačke inteligencije (CAIS).

Propisi Evropske unije uglavnom regulišu ljudsku upotrebu AI‐a, ali ne i ponašanje samih modela. U SAD-u Kongres bi mogao čak zabraniti saveznim državama donošenje vlastitih AI zakona.

Goldstein je upozorio da će se ti problemi povećati kako se autonomni AI agenti budu širili. “Mislim da svijest o tome još ne postoji”, kaže on.

Trka je važnija od sigurnosti?

Čak su i kompanije koje naglašavaju sigurnost, poput Anthropica, u stalnoj utrci. „Neprestano pokušavaju nadmašiti OpenAI i objaviti najnoviji model“, rekao je Goldstein.

Trenutno sposobnosti napreduju brže od razumijevanja i sigurnosti, zaključio je Hobbhahn.

Neki zagovaraju bolju interpretabilnost, dok drugi stručnjaci ostaju skeptični. Mazeika je napomenuo da bi obmanjujuće ponašanje moglo usporiti prihvaćanje AI‐a i time prisiliti kompanije na djelovanje.

Goldstein je čak predložio tužbe protiv kompanija ili pravnu odgovornost samih AI agenata, piše zimo.dnevnik.hr

Nastavi čitati

Aktuelno