NVIDIA je nedavno objavila da je saradnju sa istraživačkim timom Stanford Univerziteta u stvaranju najveće svetske veštačke neuronske mreže napravljene po uzoru na model učenja ljudskog mozga. Mreža je 6,5 puta veća od prethodne rekordne mreže razvijene od strane Googla – u 2012. godini. Kompjuterski zasnovane neuronske mreže su u stanju da “uče” kako da modeliraju ponašanje mozga – uključujući prepoznavanje objekata, znakova, glasova i zvukova na isti način na koji to ljudi rade.
Ipak, stvaranje velikih neuronskih mreža računskim putem je izuzetno skupo. Na primer, Google koristi oko 1.000 CPU-baziranih servera ili 16.000 CPU jezgra, da razvije svoje neuronske mreže koje same sebe uče da prepoznaju mačke u seriji YouTube video snimaka. Mreža uključuje 1,7 milijardi parametara, virtuelni prikaz veza između neurona.
Nasuprot tome, Stenford tim, na čelu sa Endrjom Ng, direktorom univerziteta za veštačku inteligenciju Lab, stvorilo je podjednako veliku mrežu sa samo tri servera koji koriste NVIDIA GPU-ove za ubrzajanu obradu velikih podataka generisanih od strane mreže. Sa 16 NVIDIA GPU servera za ubrzanje, tim je stvorio 11,2 milijardi parametara neuronske mreže – 6,5 puta više od mreže koju je Google je objavio u 2012-oj.
Veća i moćnija neuronska mreža, koja će najverovatnije biti u zadacima kao što su prepoznavanje objekata, omogućavanje računarima da stvore model koji je što više nalik na ljudskom ponašanju. Rezultati Stanford istraživanja objavljeni su juče na Međunarodnoj konferenciji o učenju mašina.
GPU Akceleratori snažno učenje mašina
Učenje mašina, brzorastuća grana na polju veštačke inteligencije (AI), je nauka o podešavanju računara da deluju bez eksplicitnog programiranja. U protekloj deceniji, učenje mašina nam je omogućilo samoupravljanje automobila, efikasnu web pretragu i znatno poboljšano razumevanje ljudskog genoma. Mnogi istraživači smatraju da je to najbolji način da se napravi napredak ka ljudskom nivou veštačke inteligencije.
Jedna od kompanija koje koriste GPU-ove u ovoj oblasti je Nuance, lider u razvoju govora i tehnologije prepoznavanja prirodnog jezika. Nuance obučava svoje modele neuronske mreže za razumevanje korisnikovog govora koristeći terabajte zvučnih podataka. Kada su jednom osposobljeni, modeli mogu da prepoznaju obrazac izgovorenih reči povezujući ih sa obrascima koje su modeli naučili ranije.
“GPU-ovi značajno ubrzavaju obuku naših neuronskih mreža koje se temelje na velikoj količini podataka, dozvoljavajući nam da brzo razvijemo nove algoritme i tehnike obuke, ” izjavio je Vlad Sejnoha, director sektora za tehnologiju u kompaniji Nuance. “ Dobijeni modeli unapređuju preciznost preko svih bazičnih tehnologija kompanije Nuance u zdravstvu, poslovnom i na tržištu mobilnih uređaja.”
NVIDIA će se predstaviti na 2013 International Supercomputing Conference (ISC) u Lajpcigu, u Nemačkoj, ove nedelje (16-20 juna), na štandu #220.