IBMs nye dataløsning i minnet gjør virksomheten til AI-opplæring raskere og enklere

CES 2018: Hvordan IBM bruker en kvantecomputer i maskinlæring og AI Jeff Welser, visepresident og laboratoriesjef for IBMs Almaden Research Center, diskuterer hvordan kvanteberegning og maskinlæring kan fungere sammen, og viser en prototype av IBMs 50-qubit-system .
Bygge et lysbilde dekk, tonehøyde eller presentasjon? Her er de store takeaways:
  • IBMs nye datamaskin-konsept med blandet presisjon kombinerer en von Neumann-maskin med en datamaskinminneenhet for å forbedre databehandlingshastigheten og kostnadene.
  • IBMs datakonsept med blandet presisjon i minnet kan gjøre opplæring av AI-systemer raskere og rimeligere.

Når vi går inn i en ny epoke med kognitiv databehandling og prøver å skaffe innsikt fra stadig større datasett, er ikke mange av dagens datamaskiner optimalisert for å håndtere så store arbeidsmengder. Men et nytt hybridkonsept utviklet av IBM-forskere og publisert i Nature Electronics kan gjøre det langt enklere å kjøre analyser og maskinlæringsapplikasjoner og trene kunstig intelligens (AI) -systemer.

De fleste datamaskiner er designet basert på von Neumann-arkitekturen, som krever at data overføres mellom prosesserings- og minneenheter - en ineffektiv prosess, ifølge et tirsdagsprogram fra IBM Research om avisen.

Datasenter må leses

  • 8 datasenterprognoser for 2020
  • 7 nettverksvarslinger for 2020: Automatisering, edge computing, Wi-Fi 6, mer
  • Beste praksis for server virtualisering og tips om hva du ikke skal gjøre
  • Kvanteberegning: Syv sannheter du trenger å vite

IBMs nye konsept, kalt blandet presisjon i minnet, kombinerer en von Neumann-maskin med en datamaskin. I denne designen utfører dataminnesenheten de fleste av beregningsoppgavene, mens von Neumann-maskinen forbedrer nøyaktigheten av den aktuelle løsningen.

"Systemet drar derfor nytte av både den høye presisjonen ved digital databehandling og energien / arealeffektiviteten i dataminnet, " ifølge innlegget.

Tilnærmingen kan gi IBM løsningen på maskinvareakseleratorene for høye ytelser og maskinlæringsapplikasjoner som Microsoft og Google har søkt, som nevnt av søstersiden ZDNet.

Mixed-precision in-memory computing er avhengig av enheter som kalles faseendringsminne (PCM), som kan programmeres for å nå et visst nivå av konduktivitet. PCM-enhetene kan håndtere det meste av tunge løft databehandlingen uten å måtte overføre data til en CPU eller GPU, noe som gir raskere behandling med lavere energikostnader, bemerket ZDNet.

"Det faktum at en slik beregning delvis kan utføres med et beregningsminne uten å ofre den totale beregningsnøyaktigheten, åpner for spennende nye veier mot energieffektiv og rask dataanalyse i stor skala, " IBM-stipendiat Evangelos Eleftheriou, en medforfatter av papir, skrev i innlegget.

"Denne tilnærmingen overvinner en av de viktigste utfordringene i dagens von Neumann-arkitekturer der de massive dataoverføringene har blitt den mest energisultne delen, " skrev han. "Slike løsninger er etterspurt fordi analysering av de stadig voksende datasettene vi produserer raskt vil øke beregningsbelastningen til det eksascale nivået hvis standardteknikker skal brukes."

Det er viktig å merke seg at denne forskningen fremdeles er ny, og at IBMs prototypeminnebrikke vil trenge å nå gigabyte minne for å være nyttig for datasenter-skala-applikasjoner, i stedet for den nåværende en megabyte, ifølge ZDNet. Men IBM har planer om å nå dette målet ved å bygge større matriser av PCM-enheter, eller få flere til å operere i tandem, rapporterte ZDNet.

Datasenter Trender Nyhetsbrev

DevOps, virtualisering, hybridsky, lagring og driftseffektivitet er bare noen av datasentertemaene vi vil trekke frem. Leveres mandager og onsdager

Registrer deg i dag

© Copyright 2021 | pepebotifarra.com