Connect with us

Zanimljivosti

NOSTRADAMUSOVA predviđanja za 2023. godinu RIJEČI KOJE LEDE KRV “Sedam mjeseci Velikog rata, ljudi mrtvi zbog zla”

Knjiga o Nostradamusu u kojoj autor, Mario Reding, tvrdi da je francuski astrolog iz 16. vijeka predvidio smrt kraljice Elizabete II, upozorava da bi pet velikih događaja u 2023. moglo predstavljati veliku prijetnju čovječanstvu.

U svojoj knjizi objavljenoj 2005., “Nostradamus: Potpuna proročanstva za budućnost”, Reding tvrdi da će iduće godine uz prirodne katastrofe biti i neka od najznačajnijih događanja na polju politike i nauke.

Što se tiče kraljičine smrti, Redingovo tumačenje Nostradamusove pjesme glasi: “Kraljica Elizabeta II će umrijeti, oko 2022. godine, u starosti od oko 96 godina.”

Ako se to čini sablasnim, prema brojnim izvještajima, Reding je takođe predvidio pet velikih događaja za 2023. na temelju svojih tumačenja.

“The Sun” izvještava kako je Nostradamus napisao: “Sedam mjeseci Velikog rata, ljudi mrtvi zbog zla.”

Ovo je dodatno zabrinjavajuće uzimajući u obzir trenutnu krizu u Ukrajini i prijetnju Trećeg svjetskog rata.

Publikacija izvještava da bi se predviđanja takođe mogla odnositi na napetost između Kine i SAD-a u vezi s Tajvanom.

(HITC)

Zanimljivosti

NAIVNOST PLATILA CEH! “Bijeli mag” prevario bračni par za 400.000 evra

Policija Sjeverne Makedonije uhapsila je muškarca koji se predstavljao kao bijeli mag i prevario bračni par iz Berova za oko 400.000 evra.

Kako se navodi u policijskom saopštenju, 54-godišnjeg “bijelog maga” iz skopskog sela Trubarevo za prevaru je prijavio 76-godišnjak iz Berova 3. jula u Policijskoj upravi u Štipu.

Prema navodima podnosioca prijave, od 2022. do 2025, prijavljeni “bijeli mag” je sa namjerom da sebi pribavi protivpravnu imovinsku korist obmanjivao i doveo u zabludu podnosioca pritužbe i njegovu suprugu.

Predstavljao se kao osoba sa posebnim paranormalnim sposobnostima (navodni bijeli mag, istjerivač duhova i magija), odnosno kao “Božji čovjek” koji ima moć i snagu da rastjera zle čini koje su navodno bačene na njihovog sina i koje su navodno ugrožavale njegovo zdravlje i život.

“Tokom tog skoro trogodišnjeg perioda on je u više navrata na različitim lokacijama u Skoplju i Berovu navodio oštećene da mu daju od 5.000 do 6.000 evra za ‘pomoć’, tako da je za taj period stekao protivpravnu imovinsku korist od ukupno 400.000 evra”, precizira se u saopštenju, prenosi Nova.

Ističe se da je nakon prijema prijave policija “označila” novac koji je 76-godišnjak iz Berova namjeravao da preda navodnom “bijelom magu” i 4. jula u Berovu uhapsila prijavljenog prevaranta i njegovu 76-godišnju majku, kod kojih je, prilikom pretresa, pronađena gotovina od 3.000 evra.
Nezavisne

Nastavi čitati

Zanimljivosti

HAOS U AUSTRALIJI! Lav ugrizao ženu u zoološkom vrtu!

Lav je neobjašnjivo skočio i ugrizao ženu za ruku u zoološkom vrtu u Kvinslendu dok je posmatrala rad čuvara u zoni za mesoždere, saopštio je zoološki vrt.

Zoološki vrt u mjestu Pilton saopštio je da žena, u pedesetim godinama, nije zaposlena u ovoj ustanovi, već je “veoma voljeni član” njihove porodice.

“Ovo je nešto što je radila mnogo, mnogo puta u proteklih 20 godina. Dobro je upoznata sa protokolima bezbjednosti oko potencijalno opasnih životinja”, navodi se u saopštenju.

Zoološki vrt je naveo da je žena zadobila tešku povredu, prenijela je agencija AAP.

U saopštenju se dodaje da se lav nije nedavno pario i da neće biti uspavan niti kažnjen na bilo koji način.

“Ni u jednom trenutku ova životinja nije napustila svoj ograđeni prostor i nije bilo nikakvog rizika za zaposlene ili javnost”, podvlači se u saopštenju.

Zoološki vrt, udaljen dva sata vožnje jugozapadno od Brizbejna, zatvoren je nakon incidenta, ali se očekuje da će sutra biti ponovo biti otvoren.

Nastavi čitati

Zanimljivosti

VJEŠTAČKA INTILIGENCIJA VAN KONTROLE: AI spletkari, laže i prijeti da će otkriti vanbračne afere

Najnapredniji AI sustavi više ne griješe samo slučajno – oni planiraju, obmanjuju i čak prijete ljudima. Istraživači vještačke inteligencije, s druge strane, jedva drže korak.

Rezultat neobuzdanog razvoja

Claude 4 kompanije Anthropic zaprijetio je da će otkriti vanbračnu aferu jednog inženjera kada mu je prijetilo isključenjem. Model o1 kompanije OpenAI pokušao je sam sebe prebaciti na vanjske servere, a potom je porekao da je to pokušao učiniti.

Ti slučajevi ukazuju na uznemirujuću činjenicu i više su od izolovanih slučajeva da razvojni inženjeri zapravo ne razumiju u potpunosti ponašanje vlastitih modela. Istraživači upozoravaju da su oni simptom dubljeg problema, jer nakon godina vrtoglavog napretka, čak ni vodeće kompanije i njihovi razvojni inženjeri ne razumiju u potpunosti kako njihovi sistemi vještačke inteligencije, temeljeni na rasuđivanju, funkcionišu ili zašto se ponašaju nepravilno.

Pojava strateške obmane

“O1 je bio prvi veliki model kod kojeg smo vidjeli ovakvo ponašanje”, rekao je za agenciju AFP Marius Hobbhahn, voditelj iz Apollo Researcha. Korisnici su prijavljivali da AI modeli lažu i izmišljaju dokaze.

“To nisu samo halucinacije. Riječ je o vrlo strateškoj vrsti obmane”, napominje Hobbhahn.

Simon Goldstein, profesor na Sveučilištu u Hong Kongu, istaknuo je da su ti noviji modeli skloniji problematičnom ponašanju.

Zasad se obmanjujuće ponašanje javlja samo tokom ekstremnih testova.

“Otvoreno je pitanje hoće li budući, sposobniji modeli težiti iskrenosti ili obmani”, upozorava Michael Chen iz METR-a, neprofitne organizacije za proučavanje AI-ja.

Ograničeni resursi, slab pristup i nepostojeća regulacija

Naučnici tvrde da kompanije ne dijele dovoljno informacija o razvoju AI modela. Chen je rekao da bi veća transparentnost „omogućila bolje razumijevanje i smanjenje obmanjujućeg ponašanja.“

“Istraživački sektor i neprofitne organizacije imaju višestruko manje računarskih resursa od AI kompanija. To nas jako ograničava”, rekao je za AFP Mantas Mazeika iz Centra za sigurnost vještačke inteligencije (CAIS).

Propisi Evropske unije uglavnom regulišu ljudsku upotrebu AI‐a, ali ne i ponašanje samih modela. U SAD-u Kongres bi mogao čak zabraniti saveznim državama donošenje vlastitih AI zakona.

Goldstein je upozorio da će se ti problemi povećati kako se autonomni AI agenti budu širili. “Mislim da svijest o tome još ne postoji”, kaže on.

Trka je važnija od sigurnosti?

Čak su i kompanije koje naglašavaju sigurnost, poput Anthropica, u stalnoj utrci. „Neprestano pokušavaju nadmašiti OpenAI i objaviti najnoviji model“, rekao je Goldstein.

Trenutno sposobnosti napreduju brže od razumijevanja i sigurnosti, zaključio je Hobbhahn.

Neki zagovaraju bolju interpretabilnost, dok drugi stručnjaci ostaju skeptični. Mazeika je napomenuo da bi obmanjujuće ponašanje moglo usporiti prihvaćanje AI‐a i time prisiliti kompanije na djelovanje.

Goldstein je čak predložio tužbe protiv kompanija ili pravnu odgovornost samih AI agenata, piše zimo.dnevnik.hr

Nastavi čitati

Aktuelno