Dine AI-arbeidsmengder i skyen: Google slipper endelig TPU-beta

Video: Google om hvordan TensorFlow Lite vil bidra til å bygge bedre AI for smarttelefoner Pete Warden, leder av TensorFlow mobile / innebygde team hos Google, om å bringe maskinlæring til telefoner og datamaskiner med enkel tavle.
Bygge et lysbilde dekk, tonehøyde eller presentasjon? Her er de store takeaways:
  • Google har gitt ut Cloud TPU-maskinens læringsakseleratorer i beta, noe som kan bidra til å øke opplæringen av maskinlæringsmodeller.
  • Foretak som ønsker å øke fokuset på maskinlæring og AI, bør vurdere Google Cloud Platform som et levedyktig alternativ for arbeidsmengden.

Google ga mandag ut sine Tensor Processing Units (TPUs) i beta på Google Cloud Platform, og gir et sterkt alternativ for bedrifter å øke innsatsen innen kunstig intelligens (AI) og maskinlæring.

TPUs, som ble kunngjort via et blogginnlegg, vil gå langt i retning av å få raskere opplæring i modeller for maskinlæring - lage modeller som kan trenes over natten i stedet for over dager eller uker. Google kunngjorde først arbeidet med TPU-er for noen år siden, men slipper akkurat nå for å bli brukt av skykundene.

Utgivelsen av TPU-ene øker det økende antallet beregningsalternativer som er tilgjengelige for selskaper som ønsker å gjøre seriøs maskinlæring og AI-arbeid i skyen. I oktober 2017 stilte Amazon Web Services (AWS) NVIDIA Tesla V100 GPU-er tilgjengelige i EC2 blant en rekke andre maskinlæringsverktøy, og Microsoft gjorde også de samme GPU-ene tilgjengelig i slutten av 2017 for HPC og AI arbeidsmengder.

Gitt den økende viktigheten av AI og maskinlæring, vil muligheten til å bearbeide arbeidsmengdene og trene disse modellene bli tabellinnsatser blant de beste skylverandørene. Google har gitt seg et navn som et av de fremste navnene innen maskinlæring og dyp læring, og tilgjengeligheten av TPU-er bør være en alvorlig vurdering for skykunder som leter etter et sted å kjøre arbeidsmengdene for AI og maskinlæring.

I sitt blogginnlegg beskriver Google Cloud TPUer som en "familie av Google-designede maskinvareakseleratorer som er optimalisert for å fremskynde og skalere opp spesifikke ML-arbeidsmengder programmert med TensorFlow." Disse akseleratorene har vært kraften bak deler av Googles datasentre siden 2015, som bemerket av søsternettstedet ZDNet, og tilbyr 180 teraflops flytende punktytelse på et enkelt brett, heter det i innlegget. På en nylig Google I / O-begivenhet sa administrerende direktør Sundar Pichai at Google vurderte sin beregningsarkitektur på nytt for å bygge "AI-første datasentre."

I stedet for å måtte dele en klynge, får dataforskere tilgang til en nettverkstilkoblet Cloud TPU gjennom en Google Compute Engine VM, heter det i innlegget. De kan kontrollere og tilpasse dem til å imøtekomme behovene i arbeidsmengden.

I tillegg til å tilby TPU-er, tilbyr Google Cloud Platform også tilgang til CPUer som Intel Skylake-serien, og GPUer som den nevnte NVIDIA Tesla V100. Fakturering av Cloud TPU beregnes av det andre til en kurs på $ 6, 50 per Cloud TPU per time, heter det i innlegget.

I et eget innlegg kunngjorde Google også at GPU-er i Kubernetes Engine er i beta. Disse kan også gi et løft til lignende innsats innen maskinlæring og bildebehandling.

Cloud og alt som et service nyhetsbrev

Dette er din go-to ressurs for det siste om AWS, Microsoft Azure, Google Cloud Platform, XaaS, skysikkerhet og mye mer. Leveres mandager

Registrer deg i dag

© Copyright 2021 | pepebotifarra.com