• Pagrindinis
  • Kiti
  • AI dabar priartėja prie „Star Trek: TNG“ duomenų, nes žino, ar galite ja pasitikėti

AI dabar priartėja prie „Star Trek: TNG“ duomenų, nes žino, ar galite ja pasitikėti

Kokį Filmą Pamatyti?
 
>

Jis gali būti ne toks sąmoningas kaip duomenys iš Žvaigždžių kelias: TNG (dar), ypač todėl, kad tas droidas galėtų geriau prižiūrėti katę nei kai kurie žmonės, tačiau AI dabar pasiekė tašką, kai suprato, kada jis nėra patikimas.



Kas dabar vadinama gili įrodymų regresija pakėlė AI savimonę. Ji žinos, kada turės didesnę tikimybę padaryti klaidą prognozuodama, įvertindama duomenų, į kuriuos ji žiūri, patikimumą. Ateities prognozės greičiausiai pasiteisins, jei joms įtakos turės nuodugnesni ir tikslesni duomenys. Priešingai reiškia, kad viskas tikriausiai bus negerai - ir AI gali tai pajusti. Kai jis įvertina savo tikrumą dėl kažko, šis tikrumas didės ir mažės, priklausomai nuo duomenų, kuriuos jis pateikia. Tada AI gali 99% tikslumu nustatyti riziką ar neapibrėžtumą.

stovėkite prie manęs sveiko proto žiniasklaida

Atrodo, kad net Pikardas būtų sužavėtas - bet palaukite. Sąmoningi robotai turi tik vieną trūkumą, tai yra tai, kad 99% nėra visiškai tikras, kad ir koks artimas jis būtų. Vos 1% atsilikimas gali reikšti nelaimę potencialiai gyvybei pavojinguose scenarijuose-nuo autonominio automobilio vairavimo iki operacijos. Baugus.







Nors [gili įrodymų regresija] turi keletą pranašumų, palyginti su esamais metodais, pagrindiniai jos apribojimai yra koreguoti reguliavimo koeficientą ir veiksmingai pašalinti neklaidinančius įrodymus kalibruojant neapibrėžtumą, sakė MIT daktaras. mokinys Aleksandras Amini , kuris vadovavo tyrimui, kurį pristatys kito mėnesio „NeurIPS“ konferencijoje.

angelo skaičiaus 404 reikšmė

Tai, ką Amini ir jo komanda sugebėjo padaryti, vis dar yra nuostabu. Prieš tai dirbtinio intelekto naudojimas netikrumui įvertinti buvo ne tik brangus, bet ir per lėtas sprendimams, kuriuos reikia priimti per kelias sekundes. Neuroniniai tinklai gali būti tokie milžiniški, kad gali užtrukti amžinai, kol jie apskaičiuos atsakymą, o laukti, kol sužinosite pasitikėjimo lygį, būtų per ilgai, kad net vargintumėte įdėti pastangų. Būtų beprasmiška naudoti kažką panašaus į save -vairuojantis automobilis, kuriam reikia žinoti, į kurį posūkį iš karto pasukti. Procesas buvo paspartintas gilios įrodomosios regresijos būdu. Šis neuroninis tinklas turi veikti tik vieną kartą, kad išsiaiškintų neapibrėžtumo lygį.

Spėdamas apie modelio, kurį AI išmoko, netikrumą, jis gali mums apytiksliai pasakyti, kokia plati yra klaidų riba. AI naudoja įrodymus, kad patvirtintų savo įvertinimą. Šie įrodymai apima bet kokį neapibrėžtumą, kuris slypi neuroninio tinklo ką tik išanalizuotuose duomenyse arba jo savimonėje, kaip jis yra įsitikinęs savo sprendimu. Amini ir jo komanda išbandė gilaus įrodymo regresijos metodą, išmokydami AI įvertinti kiekvieno vaizdo taško gylį. Gilumo suvokimas gali reikšti gyvybę ar mirtį operacijoje, kuriai reikia pašalinti naviką, kuris gali būti giliai kūno viduje ir sunkiai matomas.

AI dažniausiai buvo tikslus, bet tai sujaukė kadaise buvo maitinami sunkiau įsimenami vaizdai. Bent jau buvo vienas dalykas, dėl kurio jis buvo nuoseklus: susidūręs su vaizdais, kurie jam sukėlė sunkumų, jis nedelsdamas informuos komandą apie savo netikrumą. Jo nustatyta klaidų riba gali bent jau išmokyti tyrėjus, kaip patobulinti tą modelį. Galimybė atpažinti nuotraukas, kurios buvo „Photoshop“, taip pat atveria galimybę atpažinti gilius sukčiavimus. Žmonės tiesiog turi žinoti, kad šios roboto smegenys vis dar klysta, ir mes negalime jomis pasitikėti labiau, nei jos gali pasitikėti savimi.

angelo numeris 7777 dvynių liepsna

Manome, kad tolesnis tyrimas yra pagrįstas, siekiant rasti alternatyvių būdų, kaip pašalinti neklaidinančius įrodymus, - sakė Amini .

Tai reiškia, kad dirbtinis intelektas, galintis mąstyti naudojant gilią įrodymų regresiją, yra gana patikimas, kol klaidingo atsakymo rezultatas nebūtų mirtinas.