NVIDIA: Firekjerner kan faktisk bruke mindre strøm enn dobbelkjerne

Siden begynnelsen av 2011 har NVIDIA gått i en tåre i mobilmarkedet og hoppet foran Qualcomm og Texas Instruments. NVIDIAs Tegra 2 dual core-prosessor var overalt på CES 2011 i januar, og drev nesten alle de mest etterlengtede Android-enhetene fra Motorola Xoom til ASUS Eee Pad til Motorola Atrix til T-Mobile G-Slate.

Mens NVIDIA ga oss den første dual core ARM-prosessoren, gir Tegra-brikkene også ganske god batterilevetid for smarttelefonene og nettbrettene som bruker dem. Jeg snakket med NVIDIA på CTIA Wireless 2011 om hvordan den drar av kraftig ytelse og lang batterilevetid samtidig, og selskapet tilskrev det to faktorer:

  1. Det paradoksale faktum at jo flere kjerner en brikke har, desto mindre strømavløp for mange aktiviteter
  2. Strammere integrasjon mellom CPU og GPU enn konkurrenter

NVIDIA Tegra, som er en system-on-a-chip (SoC) som inneholder både CPU og GPU, er mindre enn en krone. Fotokreditt: Jason Hiner

Flere kjerner, mindre strømavløp

I forrige måned, da TI og Qualcomm kunngjorde sine dual core-brikker som vil komme ut senere i år for å matche Tegra 2, avslørte NVIDIA sine quad core-brikker under kodenavnet Project Kal-El. Jeg snakket med NVIDIA-direktør for teknisk markedsføring Nick Stam ved CTIA, og han sa at nettbrett som kjører NVIDIA-firkjerne-sjetonger, er i rute for å komme på nettbrett i august og på smarttelefoner før utgangen av året.

Når han ble trykket på hva quad core vil bety for batteriets levetid - en stor bekymring for den gjennomsnittlige brukeren - bemerket Stam at quad core faktisk kan være bedre for batterilevetiden enn dual core. Og han sa at den nåværende dual core ARM-brikken kan være bedre på batterilevetiden enn deres enkeltkjerne-kolleger.

Årsaken til at det er tilfelle, ifølge Stam, er at når en applikasjon er riktig flertrådet og arbeidsmengden er spredt over to CPUer, holder den spenningen og frekvensen til CPUene lavere på begge kjernene. Imidlertid vil den samme arbeidsmengden på en CPU maksimere spenningen og frekvensen på CPU-en, og når CPU-en blir maksimal, kjører den varmere, og det er da den trekker mye mer strøm. Ta en titt på de to diagrammene nedenfor for å få et visuelt bilde av dette konseptet (du kan klikke på bildene for en større visning).

Hvis du har en stor arbeidsmengde som maksimerer ut begge kjernene til en dual-core CPU - eller alle fire kjernene på en firkjerne - vil du naturligvis bruke mer strøm og tømme batteriet mer enn en chip med færre kjerner. Men for aktiviteter som gjennomsnittlig nettlesing, e-post og til og med grunnleggende videoavspilling, kan disse tingene spres over kjerner slik at de mindre skatter på systemet og trekker mindre strøm.

Bortsett fra mitt møte med NVIDIA, på CTIA snakket jeg separat med LG, som bruker chips fra TI, Qualcomm og NVIDIA i de forskjellige smarttelefonene. LG påpekte at enhetene som kjører Tegra 2 ser den beste batterilevetiden til gjengen.

Hvis du vil ha mer bakgrunn i dette problemet (fra NVIDIAs perspektiv), kan du se på NVIDIAs hvitbok Fordelene ved flere CPU-kjerner i mobile enheter.

Integrering av CPU og GPU

Den andre faktoren som NVIDIA siterte som en kilde til strømeffektiviteten til brikkene, er dens tette integrasjon mellom CPU og GPU. Generelt er dette en primær fordel med system-on-a-chip-designen, som både Qualcomm og TI også bruker. Fordelen for NVIDIA er at den har designet sine egne grafikkbrikker i et par tiår, så den har mye kompetanse og åndsverk som den kan bruke for å skvise ut ytelse og effektivitet (se diagram over chipdesign nedenfor).

Kreditt: NVIDIA

Stam sa at det faktum at NVIDIA faktisk designer grafikkprosessoren er en viktig del av fordelen, siden grafikk og skjerm er noen av de største faktorene som påvirker batteriets levetid på mobile enheter. NVIDIA-CPUer forteller smart grafikkbrikkene sine til å slå av eller slå av for å spare strøm i løpet av den gjennomsnittlige dagen for bruk av mobilenheter, og over tid som øker batteriets levetid.

Motsatt har Qualcomm ikke den samme ekspertisen innen grafikkbrikker. Som et resultat har Qualcomm-drevne enheter som HTC ThunderBolt - som er en absolutt hastighetsdemon - dårlig batterilevetid. Selv om vi ikke kan knytte alle batteriproblemene til ThunderBolt (og andre HTC-enheter som EVO og Incredible) på Qualcomm-brikkene, er CPU og grafikk en kritisk faktor i ligningen. Ikke se etter at HTC begynner å bruke NVIDIA-brikker når som helst. Selskapet har et langsiktig samarbeid med Qualcomm og Qualcomm er en investor i HTC.

Et par andre interessante fakta om NVIDIAs kommende quad core-brikke - den vil omfatte en GeForce GPU med 12 kjerner, og den kan vise skjermer opp til 2560x1600.

Jeg vil følge opp med Qualcomm og Texas Instruments for å få svar på disse problemene og deres strategier for å motvirke NVIDIA.

© Copyright 2021 | pepebotifarra.com