Jaunā IBM Tehnoloģija ļāva AI Apmācību Paātrināt 4 Reizes - - Alternatīvs Skats

Jaunā IBM Tehnoloģija ļāva AI Apmācību Paātrināt 4 Reizes - - Alternatīvs Skats
Jaunā IBM Tehnoloģija ļāva AI Apmācību Paātrināt 4 Reizes - - Alternatīvs Skats

Video: Jaunā IBM Tehnoloģija ļāva AI Apmācību Paātrināt 4 Reizes - - Alternatīvs Skats

Video: Jaunā IBM Tehnoloģija ļāva AI Apmācību Paātrināt 4 Reizes - - Alternatīvs Skats
Video: Introduction To Artificial Intelligence Coursera Week 4 Quiz Answers 2024, Maijs
Anonim

Mākslīgā intelekta skaitļošanas efektivitāte ir kā divpusējs zobens. No vienas puses, tas ir jāmācās diezgan ātri, bet, jo vairāk neironu tīkls "paātrinās", jo vairāk tas patērē enerģiju. Tas nozīmē, ka tas var kļūt vienkārši nerentabls. Tomēr izeju no situācijas var dot IBM, kura ir demonstrējusi jaunas AI mācīšanas metodes, kas tai ļaus mācīties vairākas reizes ātrāk ar vienādu resursu un enerģijas izmaksu līmeni.

Lai sasniegtu šos rezultātus, IBM bija jāatsakās no skaitļošanas metodēm, izmantojot 32 bitu un 16 bitu paņēmienus, izstrādājot 8 bitu paņēmienu, kā arī jaunu mikroshēmu darbam ar to.

Visi IBM jauninājumi tika prezentēti NeurIPS 2018 Monreālā. Uzņēmuma inženieri runāja par divām norisēm. Pirmais tiek saukts par "neironu tīklu dziļu mašīnu apgūšanu, izmantojot 8 bitu peldošā komata skaitļus". Tajā viņi apraksta, kā viņiem šādā veidā izdevās samazināt aritmētisko precizitāti lietojumprogrammām no 32 bitu uz 16 bitu un saglabāt to 8 bitu modelī. Eksperti apgalvo, ka viņu tehnika 2-4 reizes paātrina dziļo neironu tīklu apmācības laiku salīdzinājumā ar 16 bitu sistēmām. Otrā attīstība ir "8 bitu reizināšana atmiņā ar projicētu fāzes pārejas atmiņu". Šeit eksperti atklāj metodi, kas kompensē analogo AI mikroshēmu zemo precizitāti, ļaujot tām patērēt 33 reizes mazāk enerģijas nekā salīdzināmām digitālajām AI sistēmām.

Vladimirs Kuzņecovs