AI kiirendi

Allikas: Vikipeedia

AI kiirendi, süvaõppe protsessor või närvitöötlusüksus (NPU) on spetsialiseeritud riistvarakiirendi[1]või arvutisüsteem[2], mis on loodud tehisintellekti ja masinõppe rakenduste kiirendamiseks. Tüüpilised rakendused on näiteks algoritmid robootikale, nutistule ning muudele andmemahukatele või sensoripõhistele ülesannetele.

AI kiirendeid kasutatakse mobiilseadmetes, näiteks närvitöötlusüksused (NPU-d) Apple'i iPhone'ides[3] ja Huawei mobiiltelefonides[4], isiklikes arvutites, näiteks Apple Silicon Mac'ides ning pilvandmetöötlusserverites, näiteks Google'i Pilveplatvormi TPU-d[5]. Selles kategoorias eksisteerib mitmeid müüjaspetsiifilisi termineid ning tegemist on areneva tehnoloogiaga ilma domineeriva disainita.

Nimetus[muuda | muuda lähteteksti]

2024. aasta seisuga on termin "AI kiirendi" endiselt üpris ebaselge ning eri tootjad proovivad seda enda huvide toetamiseks ümber defineerida. See tähendab, et ei eksisteeri konsensust selle osas, mis kvalifitseerub AI kiirendina. Sellegipoolest, on toodetud mitmeid riistvarasid, mida võib sellesse valdkonda liigitada ning mis kattuvad märkimisväärsel määral oma eesmärkide ning saavutuste poolest.

Ajalugu[muuda | muuda lähteteksti]

Arvutisüsteemid on tihtipeale täiendanud CPU-sid spetsiaalselt selleks otstarbeks mõeldud kiirenditega, mida tuntakse koprotsessoritena. Märkimisväärsed rakendusspetsiifilised laiendplaadid on näiteks graafikakaardid graafika jaoks, helikaardid, graafikaprotsessorid ja signaaliprotsessorid. Kuna süvaõppe ja tehisintellekti koormused muutusid 2010ndatel aastatel üha tähtsamaks, arendati välja või kohandati olemasolevatest toodetest spetsialiseeritud laiendplaate nende ülesannete kiirendamiseks.

Esimesed katsed[muuda | muuda lähteteksti]

Esimesed versioonid AI kiirenditest, näiteks Inteli ETANN 80170NX, kasutasid analoogahelaid, et arvutada neuronfunktsioone.[6]

Hiljem järgnesid täis-digitaalsed kiibid nagu Nestor/Intel Ni1000. Juba aastal 1993 kasutati signaaliprotsessorit tehisnärvivõrkude kiirendamiseks optilise märgituvastuse tarkvara puhul.[7]

Aastaks 1988 olid Wei Zhang jt arutanud kiirete optiliste rakenduste realiseerimist konvolutsioonilistes närvivõrkudes tähestiku tundmiseks.[8][9]

1990ndatel prooviti luua paralleelseid kõrge läbilaskevõimega süsteeme tööjaamadele, mis olid suunatud mitmesugustele rakendustele, sealhulgas tehisintellekti simulatsioonidele.[10][11]

FPGA-põhiseid kiirendeid uuriti esmakordselt 1990ndatel tehisnärvivõrgu treenimise eesmärgil.[12][13]

Aastal 2014 pakkusid Chen jt välja DianNao (hiina keeles "elektriline aju")[14], et kiirendada süvanärvivõrke. Hiljem pakkusid sama grupi liikmed välja järglased (DaDianNao,[15] ShiDianNao,[16] PuDianNao[17]), moodustades DianNao perekonna[18].

Nutitelefonid hakkasid AI kiirendeid kasutama alates Qualcomm Snapdragon 820-st aastal 2015[19][20].

Heterogeensed arvutid[muuda | muuda lähteteksti]

Heterogeensed arvutid kasutavad mitut eri tüüpi protsessorit või tuuma, millest igaüks on spetsialiseeritud ning optimiseeritud kindlaks eesmärgiks. Osad sellised arvutid, näiteks Cell[21], sarnanevad olemuselt AI kiirenditega. Cell mikroprotsessorit on kasutatud mitmetes tehisintellektiga seotud töödes.[22][23][24]

Videokaartide kasutamine[muuda | muuda lähteteksti]

Videokaardid ehk GPUd on riistvara, mis on spetsialiseeritud tegelema piltidega ning arvutama pildi omadusi. Kuna matemaatiliselt on tehisnärvivõrgud ning pildimanipulatsioon sarnased ülesanded, on videokaarte hakatud üha enam kasutama masinõppe töödes.[25][26]

2012. aastal Alex Krizhevsky kasutas kahte videokaarti, et treenida süvaõppe mudel AlexNet.[27] 2010ndatel hakkasid videokaartide tootjad, näiteks Nvidia enda riist- ja tarkvarasse lisama masinõppega tegelevaid osasid. Sel kümnendil arendati videokaarte pidevalt, et neid saaks kasutada masinõppes, nii mudelite treenimisel kui kasutamisel.

Videokaarte kasutatakse siiani suurtes tehisintellekti rakendustes. Näiteks IBM'i poolt valmistatud superarvuti Summit sisaldab endas 27 648 Nvidia Tesla V100 graafikakaarti, mida kasutatakse süvaõppe algoritmide kiirendamiseks.

Superarvuti Summit

Rakendusspetsiifilised integraallülitused[muuda | muuda lähteteksti]

Kuigi videokaartide efektiivsus tehisintellektil on tunduvalt kõrgem kui protsessoritel, siis veelgi parema tulemuse saab kasutades ASICeid. Nendega on võimalik saavutada kuni 10 korda parem tulemus võrreldes GPUdega.[28][29] Sellised kiirendid optimiseerivad mälukasutust ning kasutavad madalama täpsusega ujukomaarve, et kiirendada arvutusi ning suurendada arvutite läbilaskevõimet.[30][31]

Süvaõppe protsessorid[muuda | muuda lähteteksti]

Süvaõppe protsessorid (inglise keeles Deep Learning Processor ehk DLP) on protsessorid, mille eesmärgiks on optimiseerida süvaõppe algoritme kõrge efektiivsuse nimel. Inspireerituna DianNao perest on paljud institutsioonid proovinud luua enda versioone DLPdest. Mõned näited akadeemiavaldkonnast on Eyeriss (MIT), EIE (Stanfordi ülikool), Minerva (Harvardi ülikool) jt. Tööstusvaldkonnast saab nimetada näiteks Google'i TPU ja Cambricon'i MLU.

  1. "Intel unveils Movidius Compute Stick USB AI Accelerator". 21. juuli 2017. Originaali arhiivikoopia seisuga 11. august 2017. Vaadatud 30. aprillil 2024.
  2. "Inspurs unveils GX4 AI Accelerator". 21. juuni 2017.
  3. "Deploying Transformers on the Apple Neural Engine". Apple Machine Learning Research (Ameerika inglise). Vaadatud 30. aprillil 2024.
  4. "HUAWEI Reveals the Future of Mobile AI at IFA".
  5. Jouppi, Norman P.; et al. (24. juuni 2017). "In-Datacenter Performance Analysis of a Tensor Processing Unit". ACM SIGARCH Computer Architecture News (inglise). 45 (2): 1–12. arXiv:1704.04760. DOI:10.1145/3140659.3080246.
  6. Dvorak, J.C. (29. mai 1990). "Inside Track". PC Magazine. Vaadatud 26. detsembril 2023.
  7. "convolutional neural network demo from 1993 featuring DSP32 accelerator". YouTube.
  8. Zhang, Wei (1988). "Shift-invariant pattern recognition neural network and its optical architecture". Proceedings of Annual Conference of the Japan Society of Applied Physics.
  9. Zhang, Wei (1990). "Parallel distributed processing model with local space-invariant interconnections and its optical architecture". Applied Optics. 29 (32): 4790–7. Bibcode:1990ApOpt..29.4790Z. DOI:10.1364/AO.29.004790. PMID 20577468.
  10. Asanović, K.; Beck, J.; Feldman, J.; Morgan, N.; Wawrzynek, J. (jaanuar 1994). "Designing a connectionist network supercomputer". International Journal of Neural Systems. ResearchGate. 4 (4): 317–26. DOI:10.1142/S0129065793000250. PMID 8049794. Vaadatud 26. detsembril 2023.
  11. "The end of general purpose computers (not)". YouTube.
  12. Gschwind, M.; Salapura, V.; Maischberger, O. (veebruar 1995). "Space Efficient Neural Net Implementation". Vaadatud 26. detsembril 2023.
  13. Gschwind, M.; Salapura, V.; Maischberger, O. (1996). "A Generic Building Block for Hopfield Neural Networks with On-Chip Learning". 1996 IEEE International Symposium on Circuits and Systems. Circuits and Systems Connecting the World. ISCAS 96. Lk 49–52. DOI:10.1109/ISCAS.1996.598474. ISBN 0-7803-3073-0. S2CID 17630664.
  14. Chen, Tianshi; Du, Zidong; Sun, Ninghui; Wang, Jia; Wu, Chengyong; Chen, Yunji; Temam, Olivier (5. aprill 2014). "DianNao". ACM SIGARCH Computer Architecture News. 42 (1): 269–284. DOI:10.1145/2654822.2541967. ISSN 0163-5964.
  15. Chen, Yunji; Luo, Tao; Liu, Shaoli; Zhang, Shijin; He, Liqiang; Wang, Jia; Li, Ling; Chen, Tianshi; Xu, Zhiwei; Sun, Ninghui; Temam, Olivier (detsember 2014). "DaDianNao: A Machine-Learning Supercomputer". 2014 47th Annual IEEE/ACM International Symposium on Microarchitecture. IEEE. Lk 609–622. DOI:10.1109/micro.2014.58. ISBN 978-1-4799-6998-2. S2CID 6838992.
  16. Du, Zidong; Fasthuber, Robert; Chen, Tianshi; Ienne, Paolo; Li, Ling; Luo, Tao; Feng, Xiaobing; Chen, Yunji; Temam, Olivier (4. jaanuar 2016). "ShiDianNao". ACM SIGARCH Computer Architecture News. 43 (3S): 92–104. DOI:10.1145/2872887.2750389. ISSN 0163-5964.
  17. Liu, Daofu; Chen, Tianshi; Liu, Shaoli; Zhou, Jinhong; Zhou, Shengyuan; Teman, Olivier; Feng, Xiaobing; Zhou, Xuehai; Chen, Yunji (29. mai 2015). "PuDianNao". ACM SIGARCH Computer Architecture News. 43 (1): 369–381. DOI:10.1145/2786763.2694358. ISSN 0163-5964.
  18. Chen, Yunji; Chen, Tianshi; Xu, Zhiwei; Sun, Ninghui; Temam, Olivier (28. oktoober 2016). "DianNao family". Communications of the ACM. 59 (11): 105–112. DOI:10.1145/2996864. ISSN 0001-0782. S2CID 207243998.
  19. "Qualcomm Helps Make Your Mobile Devices Smarter With New Snapdragon Machine Learning Software Development Kit". Qualcomm.
  20. Rubin, Ben Fox. "Qualcomm's Zeroth platform could make your smartphone much smarter". CNET (inglise). Vaadatud 28. septembril 2021.
  21. Gschwind, Michael; Hofstee, H. Peter; Flachs, Brian; Hopkins, Martin; Watanabe, Yukio; Yamazaki, Takeshi (2006). "Synergistic Processing in Cell's Multicore Architecture". IEEE Micro. 26 (2): 10–24. DOI:10.1109/MM.2006.41. S2CID 17834015.
  22. "Development of an artificial neural network on a heterogeneous multicore architecture to predict a successful weight loss in obese individuals" (PDF). Originaali (PDF) arhiivikoopia seisuga 30. august 2017. Vaadatud 14. novembril 2017.
  23. Kwon, Bomjun; Choi, Taiho; Chung, Heejin; Kim, Geonho (2008). 2008 5th IEEE Consumer Communications and Networking Conference. Lk 1030–1034. DOI:10.1109/ccnc08.2007.235. ISBN 978-1-4244-1457-4. S2CID 14429828.
  24. Duan, Rubing; Strey, Alfred (2008). Euro-Par 2008 – Parallel Processing. Lecture Notes in Computer Science. Kd 5168. Lk 665–675. DOI:10.1007/978-3-540-85451-7_71. ISBN 978-3-540-85450-0.
  25. Chellapilla, K.; Sidd Puri; Simard, P. (23. oktoober 2006). "High Performance Convolutional Neural Networks for Document Processing". 10th International Workshop on Frontiers in Handwriting Recognition. Vaadatud 23. detsembril 2023.
  26. Krizhevsky, A.; Sutskever, I.; Hinton, G.E. (24. mai 2017). "ImageNet Classification with Deep Convolutional Neural Networks". Communications of the ACM. 60 (6): 84–90. DOI:10.1145/3065386.
  27. Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey E (24. mai 2017). "ImageNet classification with deep convolutional neural networks". Communications of the ACM (inglise). 60 (6): 84–90. DOI:10.1145/3065386.
  28. "Google boosts machine learning with its Tensor Processing Unit". 19. mai 2016. Vaadatud 13. septembril 2016.
  29. "Chip could bring deep learning to mobile devices". www.sciencedaily.com. 3. veebruar 2016. Vaadatud 13. septembril 2016.
  30. "Deep Learning with Limited Numerical Precision" (PDF).
  31. Rastegari, Mohammad; Ordonez, Vicente; Redmon, Joseph; Farhadi, Ali (2016). "XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks". arXiv:1603.05279 [cs.CV].