De drie hardware giganten

Er wordt veel onzin verteld over de drie grote merken van CPUs en GPUs. Om de hardware markt en PC-gamers goed te begrijpen is het noodzakelijk om het te hebben over de deze merken. Er is een zekere hypocrisie met het PCMR volk, sinds ze hun eigen versie van ‘Console Wars’ (helaas wordt het woord ‘war’, net als ‘-gate’ veel misbruikt) hebben. Ik ga ook moeten toegeven dat ikzelf een voorkeur heb.

Interessant als ik de geschiedenis ervan vindt, ga ik vooral de goede zaken aanduiden en een heleboel vuile was uithangen. Ik ben ervan overtuigd dat als je echt om computers (of eender wat anders) geeft, dat je naar meer kijkt dan prijs, features of wie het krachtigste snelste product heeft. Alles dat de algemene vooruitgang hinderd of anti-consument is, is een serieus probleem. Ondanks wat fanboys geloven gaat het in de eerste plaats om winst maken. Geld verdienen dus. Ontwikkeling kost geld, en als men het nooit moet doen, doet men het dus zelden. Competitie is na noodzaak de belangrijkste drijfveer in technologie. Het is dus een stuk makkelijker om te begrijpen waarom dingen gebeuren door dit feit goed in het achterhoofd te houden. Want te meer passie je hebt voor games als medium of technologie als een hoger doel: des te makkelijker het is om te vergeten dat de mensen die het voor het zeggen hebben geen kunstenaars of wetenschappers zijn. Maar vooral in de techwereld, al gaat het tegen het imago in, is het veel gevraagd om zelfs eerlijk aan competitie te doen op basis van prestaties en features.

Intel in Rigs: I didn't choose the 14nm4life

Ik ben niet al te blij met Intel, maar ik haat ze ook niet. Ontevredenheid is het woord. De laatste computer die ik ermee heb gebouwd was een Asrock Deskmini 110. Ik wou een computer die goedkoop en klein, maar voldoende krachtig was voor werk dat niet grafisch intensief is. En ik ben erg blij met dit toestel, maar helaas was er een probleem. Ik moest uit een lijst van compatibele CPUs kiezen. Dit zou geen probleem mogen zijn. Het jaartal is 2018 en ik had een paar kleine (vond ik) vereisten. De CPU moest minder dan (of ongeveer) 100 euro kosten, en een quadcore zijn. Intel zou naar het schijnt goede prestaties hebben en ik herinner me hoe goed de Q6600 uit 2006 een hele lange tijd was. We waren bijna twaalf jaar verder dus ik was redelijk enthousiast voor mijn volgende project. Niet alles hoeft een VR arcaderacer, watercooling of dergelijke te zijn.. Het mocht een vrij zwak systeem zijn. Ik wou een kleine vormfactor, muisstil en goedkoop. Niet veelgevraagd. Erg kleine computerkasten zijn normaal erg moeilijk om te bouwen, maar Asrock maakte het heel makkelijk.

Mijn enthousiasme duurde helaas niet zo lang. Om de een of andere reden, verkochten ze nog steeds dualcores. Met hun hyperthreading is dit niet zozeer een probleem, maar dat kreeg je nog niet eens. Vier threads, niet eens echte cores was een lage verwachting was. De i3 reeks lijkt op een budget serie maar zelfs eind 2018, was de goedkoopste quadcore nog altijd €130 (de i3-8100). Ongeveer het dubbel van wat ik verwachtte. Ik had in Januari van het jaar des onze heer 2018 welgeteld €75 mogen neerleggen voor een Pentium G4500, een zwakke CPU uit 2015 met twee cores. En dan had het nog niet eens vier threads. In mijn zoektocht voor een upgrade een jaar later is de eerste quadcore die ik in een winkel vindt en op de lijst staat de i5-7400 voor €229,90 euro..

Het probleem van hoge prijzen en oude technologie is helaas niet uniek aan het lage segment. Het is mogelijk nog veel erger hogerop. Het was duidelijk dat de mensen bij Intel 5 jaar lang op hun krent zaten (sinds Sandy Bridge uit 2011), tot ze plots wakker geschudt werden door AMDs nieuwe Zen architectuur. Een voorbeeld is de plotse verschijning van de nogal obsurde i9-9900K, een resultaat dat plots veel beter is dan ze zeiden in staat tot te zijn. Plots is er een i9 met het hoogste getal erachter en geunlocked voor overclocking zoals je aan dat begeerde lettertje acheteraan kan zien. Allemaal omdat de Ryzen7 2700X hen verraste. De Ryzen CPU is er voor 349 euro en de nieuwe Intel voor 699 euro. Maar dubbel de prestaties heeft de Intel CPU belange niet. Ze zijn eerder gelijkaardig.

Een ander teken dat ze niet voorbereid zijn voor de toekomst is dat men nog steeds vastzit op dezelfde transistorgrootte (belangrijke maatstaf van vooruitgang) van 2014 tot 2021. Ook op klak van IPC (Instruction Per Cycle: betekent ruwwweg hoeveel in één keer kan berekend worden) waren ze duidelijk voor op de concurrentie. En ook daar waren ze stil aan het vallen tot ze zowat waren ingehaald. Het zou grappig zijn geweest, als het niet zo triest was. Het was een saaie halve decenium vergeleken met de decenia ervoor. Het leek alsof alles gewoon stil aan het vallen was, behalve de steeds hogere prijzen en grotere beperkingen voor steeds meer geld.

Opschepperij over hoeveel geld men bereid men in computers stak (of verspilde) kwam steeds meer voor. Sommige begonnen hun PC te zien als een statussymbool. Intel fanboys noemde AMD fanboys vaak "arm". Het leek alsof men trots was dat men kon veroorloven om in het zak gezet te worden. De aankoop van i7 processors terwijl men de PC niet als workstation, en de i5 in gaming nooit de GPU bottleneckte (betekend ongeveer: terughouden) gebruikte was vaak al dom. Tenzij je meer geld weggooide door meerdere grafische kaarten te gebruiken was het gewoon onzinnig. Het verschil tussen de i5 en i7 was dat de laatste hyperthreading heeft. De extra "threads" die dit gaf waren enorm handig voor beeldbewerking, virtualizatie enzovoorts.. Dus een gamer was beter af met een i5 te kopen en het verschil te investeren in andere verbeteringen of games.

Het belang van de consumenten schaden door langbestaande features en mogelijkheden weg te nemen is iets dat voor veel bedrijven de normale gang van zaken is geworden. Een goed voorteken was het gijzelen van de heel erg belangrijke features in de servermarket zoals hyperthreading, alsook van een deel van het cachegeheugen met de "Intel Upgrade Service". Maar de gewone consument is niet zo belangrijk, georganiseerd of heeft geen rechtstreekse klaaglijn zoals de grote opkopers van serveronderdelen. Ze introduceerde het in 2010, en gaven het al op in 2011. Het begon zelfs veel eerder met core multipliers vast te zetten, al hebben ze het weer ten volle teruggebracht in met de introductie van de K-reeks processoren. Dit kwam er op neer dat bijvoorbeeld de i5-6600 niet (echt) geoverclocked kan worden, terwijl de veel duurdere i5-6600k dat wel kan. De laatste koste een pak meer en had nog niet eens een CPU-koeler ibegrepen. Dat de K reeks ook sneller was kunnen we veilig veronderstellen dat gewoon was omdat ze het zelf al hadden opgedreven, en je daarvoor hadden aangerekend. Je kan niet weten hoeveel extra prestaties je verder eruit kan persen zonder een Z-reeks moederbord dat twee of drie keer zoveel kost te kopen. En dat pas nadat je geprobeerd hebt om de vijf verschillende chipsets te vergelijken.

Maar dat alles was zelfs in 2020 nog niet erg genoeg. Er was nog een beperking die ze konden opleggen door kunstmatig een grens te zetten op geheugensnelheid. Tenzij je meer betaalde voor een moederbord met een veel duurdere Intel chipset natuurlijk. Blijkbaar heb je ook nog een "overclocking-garantie" nodig nadat je speciaal een set van OC CPU, OC moederbord en zelfs XMP geheugen hebt gekocht. Want wat dacht je anders? Als je nu helemaal in de war bent is dat volkomen normaal. Het voor de hand liggende en veel eenvoudigere: 'Mensen gewoon op eigen risico en kosten laten opdrijven', zou blijkbaar veel te eenvoudig zijn. En slechts twee of drie prijsklassen voor productien niet lucratief genoeg. Over hoe vaak je een nieuwe mobo moest kopen voor upgrades omwille van nieuwe sockets (beslist of je CPU letterlijk in je moederbord past) gaan we niet beginnen.

Dus na al die investering hadden velen die zich van dit alles niets aantrokken, een krachtige machine waarvan men zeker was dat het de investering waard was. Dat idee werd uitgedaagd met nieuwe ophef op grote schaal in verband met security. Het is makkelijk om met de vinger te wijzen als het aankomt op veiligheid en beveiliging. Het is een voortdurent kat-en-muis spel waarbij zelfs de meest voorzichtigen een opening laten voor misbruik. Je zou dus echt opzettelijk nalatig moeten zijn, bijvoorbeeld door prestatie of prijsvoordelen te bekomen ten koste van veiligheid, om zwaar kritiek te verdienen. Veel van de prestatievoordelen die Intel had werden ook stillaan in vraag gesteld door een lange reeks van serieuze veiligheidsproblemen genaamd Meltdown, Spectre en Foreshadow. Door het zwaarder gebruik van een techniek genaamd ‘speculative execution’ en hyper-threading kon men veel hogere prestaties krijgen. Maar van de eerste was al eerder geweten was dat het fundamentele veiligheidsrisicos teweegbrengt. Daarom dat het goreshadow heet. Ook het woord fundamenteel is dus erg belangrijk, want deze veiligheidsrisicos bestonden al heel lang. Na al de chaos en patches valt er een erg groot deel van de prestaties terug. Spectre is ook een zwakte voor AMD, en ook voor hen is het gepached, al bleken ze geen problemen te hebben met de andere twee.

Dus wat waren goede redenen om voor Intel te gaan? Hogere framerates voor e-sports (lagere latency dan AMD) en singlethread performance (hogere IPC dan AMD). Beide voordelen zijn nu weggevallen, maar het is belangrijk om te erkennen dat Intel op basis van feitelijke prestaties voor een lange tijd een betere keuze was. Intel gaat ook zwaarder inzetten op graphics zodat we meer keuze hebben door betere iGPUs. En ze gaan zelfs wat meer competitie brengen met eigen grafische kaarten.

Een vreemd feitje dat veel PC gamers wellicht niet door hebben, is dat Intel bij ver de grootste verkoper is van GPUs. En dat is omdat Intel de meeste desktop en laptop CPUs verkoopt. Meestal worden er enkel geïntegreerde graphics gebruikt in desktops en mobiele producten. Veel zakelijke en thuisgebruikers gamen niet, en doen niet aan beeldbewerking. Ze moeten gewoon iets hebben dat beeld op hun scherm tovert. En daarvoor heb je echt niet de hoogste prestaties nodig.


Intel the Company: "Toothpaste InsideTM"

Over de hele geschiedenis van Intel, en wat ze hebben uitgespoken tot het einde van de 20ste eeuw, ga ik niet beginnen. Alles samengevat hadden ze vanaf het begin met de 8088 processor tot het 64-bit tijdperk een absolute marktdominantie. Vanaf de jaren 2000 kon Intel niet winnen tegen AMDs superieure Athlon 64 op prestatie vlak, maar toch deden ze het op de markt minstens even goed met hun 32-bit architectuur. De redenen hiervoor werden pas later duidelijk.

Intel had over heel de wereld gebruik gemaakt van verschillende corrupte taktieken om de tegenstander hun aandeel kleiner te houden. Zowel in Japan, de EU als de VS uiten dit zich in rechtzaken. Omkoping ter nadele van de concurrent binnen vijf grote Japanse conglomeraten NEC, Fujitsu, Toshiba en Hitachi werd onderzocht in Japan. Ook Sony (ook Japans) kwam erbij in de VS samen met Dell en Gateway. Verder was er ook een zaak in de EU door anti-competieve zaken met verschillende computerbouwers en 'Media Markt'/Saturn, dat zelfs toen al de grootste electronica keten in de EU was. Ook Samsung in Korea werd ‘overtuigd’ om niet te veel naar AMD te kijken.

De ernst van deze zaken toont zich in het feit dat er werdt binningevallen in de kantoren van Intel in Japan (2002) en in de EU (2008). Alsook bijhorende boetes en vergoedingen via handelscommisies de wereld rond. De anti-competieve praktijken hebben het hele decenium geduurd. Uiteindelijk is er gesettled in de zaak met AMD. Intel zou AMD 1,25 miljard USD betalen, maar had nog meer moeten betalen aan boetes aan verscheidene overheden.

AMD had gezegt dat ze hadden geprobeerd aan HP een miljoen gratis processors weg te geven. Enkel om geweigerd te worden. Dit is tot nu toe niet ontkend door HP. Dit was trouwens op het moment zijn geweest dat AMD in werkelijkheid ‘veel’ betere prestaties bood dan Intel. Het was hun beste tijd om marktaandeel en erkenning onder de consumenten te winnen. En het telde uiteindelijk voor niets. AMD was waarschijnlijk niet genoeg vergoed voor het misgelopen inkomen, en men heeft op de lange termijn zwaar aan marktaandeel ingeboet. In een strijd die zou moeten gaan om prestaties en features, is het weeral kunde met legislatie en een hoop oud geld, dat de winnaar had beslist. De processor markt leek plots erg op de telecom markten als je het zo bekijkt. Intel had verder ook nVidia een vergoeding van 1,5 miljard USD betaald in verband met benadeling op de chipset markt in de jaren 2000.

Wat gesjoemel op basis van prestaties betreft, wil ik beginnen met een komischer voorbeeld. Al was hun voorbereide plan niet half zo goed als de legendarische improvisatie van Bill Gates tijdens de aankondiging van Windows 98. Tijdens Computex in Juni 2018 was Intel er niet in geslaagd om als een goochelaar het publiek te misleiden. Ze hadden gebruik gemaakt van een 1000 USD Hailea HC-1000B industriële watercooler. Het ding werkte op 1 hele paardekracht. Ik maakte al eens grappen dat de Pentium 4 Extreme Edition van vroeger een kacheltje was waarvan je in de winter kon ‘voelen’ waar hij in de kamer stond. Maar als ze tijdens de Cinebench demo echt 700 watt hadden gebruikt was het ook net zo goed een elektrisch kacheltje. Voor de mensen die begrepen waarom en hoe dit gebeurde was het even lachen. Maar dit soort praktijken is nog onschuldig vergeleken met wat ze nog allemaal hebben zitten doen bij het minste teken dat hun concurrent op hen voorloopt. Wel kan gezegt worden dat het ding is tenminste effectiever is dan hun stock cooler die bij hun CPU zit inbegrepen. Helaas zal er geen deal zijn om de uiterst zeldzaam exemplaren dat zo geoverclockt kan worden door het met een paard te bundelen in Noord-Amerika of Europa. Het ding maakte gebruik van het hier verboden R22 koelingsgas. Dan toch maar stikstof?

Een ander probleem met Intel is niet alleen omkoperij, intimidatie en het misleiden van de pers en consumnet om hun tegenstanders geen enkel hoogtepunt te gunnen. Er is een ander probleem dat ook de eerste tien jaar van deze eeuw aansleepte. En dat is het misleiden van eigenlijke prestaties. In 2011 verlaten nVidia, VIA en AMD allemaal BAPCo, het bedrijf achter Sysmark. Een beslissing waar ze veel te lang mee hebben gewacht als men er op terugkijkt. Tijdens het Pentium 4 tijdperk in het begin van de jaren 2000, deed Intel het erg slecht vergeleken met de nieuwe AMD architectuur. Een innovatie die ze hadden verwezenlijkt ondanks de benadelingen tevoor. Plots deed AMD het een stuk slechter dan Intel met de volgende versie, Sysmark 2002. Dat het bedrijf achter Sysmark, zijnde BAPCo eenzelfde adres deelde met Intel bleek niet toevallig. Het amerikaanse Federal Trade Commision beveelde uiteindelijk dat Intel aangeeft wanneer en hoe ze invloed hebben op benchmarking software. Ook in recente jaren lijkt er weer manipulatie te zijn van resultaten. Al is de techindustrie nu veel alerter als tevoor. En als ald dat misleiden niet gaat, zeg gewoon dat de AMD Epyc, het betere product, “samengelijmd” is. Er is zover duidelijk is geen rechtstreekse connectie tussen Intel en de site Userbenchmark. Userbenchmark is op eerste zicht een populaire site die overzichtelijk vergelijkingen toont tussen verschillende onderdelen. Wat de laatste ertoe aanzet om consumenten voortdurend te misleiden in het voordeel van Intel is nog niet duidelijk. Dat hun vergelijkingsmethodes en de redenering erachter verre van logisch is, en de gevolgen ervan, zijn wel duidelijk.

Waar we wel erg dankbaar om mogen zijn is dat Intel, middels eigen productie, zorgt dat er ook chip-productie is buiten Azië. Een strategische ramp dat al voor de tekorten een duidelijk probleem was, kon anders veel erger zijn. En ze waren er bijna in geslaagd om een einde te maken aan verwarrende benamingen voor computeronderdelen. Het huidige model had een fantastisch voorbeeld kunnen zijn waar iedereen van zou moeten leren.

Terwijl er veel variaties en soorten waren, was het tien jaar lang zeer duidelijk dat je er op vooruitging vanaf de eerste Pentium CPU tot en met Pentium 4. En sinds 2006 hebben we de 'Intel Core i-reeksen'. Je hebt 'i3' is de low-end optie voor voldoende kracht voor basisgebruik, i5 voor mid-range en i7 met hyperthreading voor intensief gebruik. En uiteindelijk kwam eens het vuur hen terug aan de schenen kwam zelfs de i9 voor mensen zonder besef van geld of langetermijnplanning. De Xeon-reeks blijft voor servers. Gevolgd door getallen die duidelijk de generatie en het model (SKU) aanduiden, met eventueel een letter erachter om aan te duiden waarvoor ze dienen. 'M' voor in mobiele toestellen, 'G' voor ingebouwde graphics en zelfs 'U' voor ultra-low-power zijn zeer duidelijk en handig. Als het model-gedeelte juist gebruikt wordt is dit dus erg overzichtelijk. Dat zou het dus makkelijk maken om een idee te hebben van wat voor een chip het is, en wat het dus kan.

Processors als de i5-6600, de i7-2700k zijn populair en makkelijk te herkennen. Het is alleen spijtig dat ze niet konden laten om dit te verpesten door middel van onnodige (maar blijkbaar winstgevende) beperkingen. Hierdoor werd het een grote verwarrende alfabetsoep met letters zoals:'R', 'X" 'C', 'K', 'KF', 'H', 'HQ', 'Y' en 'E' (wat is het nut van Xeon dan?). Pentium en Celeron lijken enkel nog te bestaan omdat de i3 eigenlijk te duur is voor budget-builds..


nVidia in Rigs Part 1: ~Slippery shilling slope~

Als we het verder willen hebben over, ‘meer geld dan verstand’, laten we het dan hebben over Nvidia. De trend hier is gelijkaardig met Intel. En een voorsprong op de concurrentie die gedeeltelijk door onderhandse methodes is verkregen. Op het allerhoogste segment is nVidia doorgaans veel krachtiger. Ook is raytracing een veelbelovende technologie, die veel betere graphics mogelijk maakt, zonder dat er extra werkuren of trucjes vereist voor zijn van ontwikkelaars. Het gaat nog wat duren eerdat deze technologie zinvol en volledig uitgewerkt is. Momenteel geeft het vaak weinig tot geen visueel verschil ten koste van enorm veel prestaties. Maar het is een sprong vooruit in technologie die we echt kunnen gebruiken. Zelfs als het vandaag zinloos lijkt, is dit niet hetzelfde als wat ze in het veleden hebben uitgespookt. DLSS is een andere techniek om mooi beeld te doen dat terwijl nog vrij experimenteel enorm beloftevol is. Ze verdienen absoluut erkenning voor dit soort innovatie. Krachtige computers, ook in de handen van consumenten, kunnen veel meer dan spelletjes spelen en dit soort technologie helpt daarbij.

Er zijn veel PC gamers die een soort trouw voelde aan het merk. Het is pas sinds de chip-tekorten dat ze begonnen zijn nVidia met een 'niet mooi' woord te omschrijven. Het is belangrijk om te begrijpen waarom velen die het het grote plaatje zagen, die gewoonte al minstens vijf jaar daarvoor hadden. En we spreken hier niet alleen over ATi (overgenomen) en AMD fanboys of gamers, maar ook de rest van de computerindustrie. Het is het beste om allereerst het van de kant van de consument te bekijken. De twee voornaamste problemen zijn enorm opgedreven prijzen en de (her)introductie van "peasantry".

Iets wat al voor de chiptekorten stoorde was de steeds hogere wordende prijs voor mid en high-end kaarten. Door middel van een paar liters koffie, een spreadsheet, een hoop oude magazines, en de Wayback Machine is het met gebruik van inflatieberekeningen mogelijk om te kijken of de prijzen echt zoveel meer gestegen zijn als het lijkt. De resultaten waar niet zo duidelijk als ik had verwacht. Alweer een voorbeeld van hoe inflatie en nostalgie een gevaarlijke combinatie zijn. High-end nVidia grafische kaarten lijken voor een zeer lange tijd (in huidige geld) tussen de 500 (bv: GeForce3 TI 500) en 700 (Geforce GTX1080Ti) USD te schommelen. Het probleem zit hem in twee dingen. Vroeger had je voor 500 USD het beste dat er was en waren er doorgaans minder prijscategorieën. Maar er was een duurder segment dat erbij kwam dat de maximumprijs naar de 700 USD duwde. Met kaarten zoals de Geforce 8800 Ultra en de perceptie van de Geforce Titan als een gamingkaart (heeft immers gaming-drivers) werd dit steeds meer naar de 1000 USD gepusht. En zelfs daar voorbij. Kaarten die meer dan 500 kostte bestonden dus al de een tijd langer. En we zien trouwens ook bij AMD een kaart, de Radeon HD6990, die samen met de Geforce GTX 590 los over de 700 USD grens ging als je inflatie van 10 jaar erbij telt.

De perceptie dat gaming kaarten duurder werden heeft met twee zaken te maken. En de reden dat het de schuld leek van nVidia heeft waarschijnlijk met meer dan gewoon prijzen te maken. Er waren in 2014 ongebruikelijke kaarten, zoals de Geforce GTX Titan Z en de Radeon R9 295X2, die uitkwamen voor 3000 USD en 1500 USD. De sterke onderscheiding tussen professionele kaarten zoals de nVidia Quadro reeks en AMD Firepro reeks. De introductie van de Titan reeks in 2013 was waar het lelijk begon te worden. Ondanks dat ze geen ECC (ook bij CPUs een pro-feature) en professionele drivers hebben, zou je aan gaming-kaart denken. Maar ze hebben wel de hoge prestaties, prijs en de kwantiteit van geheugen van professionele kaarten. Het zijn de prestaties en GeForce-drivers dat techreviewers het deden voorstellen als de McLaren van grafische kaarten. Hierbij kwam de meute van steeds meer voorkomende types die het normaal vinden om ontzettend veel te betalen voor "het beste". Steeds vaker op forums kwamen er opmerkingen dat niet iedereen even "arm" is als de mensen die vonden dat de prijzen absurd werden.

Na een lange lijn van een herkenbare benaming komen we, na de GTX10-reeks, uit op de opzettelijke verwarring en [REDACTED] van de GTX16-reeks en de RTX20-reeks. Om nog meer verwarring te voorkomen gaan we zwijgen over de Titan (naamREDACTED) kaarten, nemen we slechts één van de twee GTX1060 kaarten (want één ervan had gewoon niet mogen bestaan), we negeren de prijsreducties naderhand en we gaan chronologisch. Zelfs als er een patroon lijkt te zijn met de benamingen is dit nutteloos als je naar de kaarten zelf kijkt. Bijvoorbeeld: de Super kaarten zijn duurder dan hun gewone tegenhanger, en kwamen een half jaar later uit. De GTX 1660 Super is zowat identiek, maar heeft GDDR6 geheugen ipv GDDR5 geheugen. De RTX 2080 en RTX 2080 super, die allebei EERDER uitkamen dan die kaarten hebben allebei GDDR6, maar verschillen wel op de gebruikelijke gebieden. Als alles nu al ingewikkeld klinkt, begrijp dus dat ik alsnog een onvolledig overzicht geef om alles te vereenvoudigen.

Ideaal gezien zijn er op ongeveer twee jaar tijd gewoon twee generaties, met elk maximaal vijf prijscategorieën, voor één marktsegment (in dit geval gaming en thuisgebruik). Dat zou echter overzichtelijk en logisch zijn. Beginnend met de GTX 1080 in 2016 heb je met Titan kaarten (worden immers geadverteerd aan, en gebruikt door gamers) inbegrepen:
- Binnen de GTX10 generatie (GTX 1010 uitgezonderd) kijkt 12 modellen
- Tot de RTX 2060 ongeveer twee en een half jaar tijd 20 modellen
- Tot de GTX 1650 kijkt op bijna 3 jaar tijd 25 modellen
- Tot de GTX 1010 (owv naam en chip) op 4 en een half [REDACTED] jaren tijd 26 modellen

Ik vermeld dit alles gewoon als een disclaimer. Ik wil duidelijk maken dat op slechts een paar jaar tijd dit allemaal ontzettend verwarrend is geworden voor absoluut iedereen. Zeker als je als klant die in de markt is voor een kaart zoals de 'RTX 2080 Ti' je bij merken als ASUS, EVGA, Gigabyte en MSI dan bij elk nog eens ongeveer vijftien varianten ziet staan. Om dus eindelijk terug te komen op stijgende prijzen.. Na het voor mezelf wat makkelijker te maken:

Als je in 2018 een nieuwe kaart wou betaalde je ten opzichte van de 'GTX-10' kaart voor 'dezelfde' RTX kaart 100 tot 300 USD meer. Raytracing zach er beloftevol op maar leek even waarschijnlijk om net als PhysX tot grotendeels een gimmick herleid te worden. Weinigen waren erin geïntereseerd, en het was dus niets meer dan een zinloze prijsverhoging. De GTX-16 reeks was in het beste geval nog maar een gerucht, en kwam pas een half jaar later. En als je zoveel hebt betaald voor een dure kaart wil je zeker zijn dat je echt mooier en sneller beeld krijgt zonder problemen. Dus dan wil je mischien ook nog eens gebruik maken van 'adaptive sync' in plaats van v-sync. En ondanks dat Nvidia ook deel uitmaakt van VESA dat de standaard maakte (Freesync is dus niet ontwikkeld door alleen AMD), en het volgens experts maar een klein beetje code vereist om mogelijk te maken, mag je in de plaats nog eens de 200 USD G-sync tax betalen op je al reeds erg dure monitor. Het duurde nog even eerdat ze uiteindelijk de standaard "toestonden".

Dan mag je ook niet vergeten dat MSRP in de praktijk eerder een minimumprijs is dan wat waarvoor het eigenlijk staat. Manufacturer Suggested Retail Price, betekent 'Aanbevolen Marktpijs Van Fabrikant'. Tel er vaak nog maar eens 50 tot 100 USD bij. Doorgaans is de prijsgetal zonder BTW in USD erg gelijkaardig met de prijs in EUR met BTW dus je hebt alsnog een vrij goed idee als je USD vervang met EUR. Dit zie je ook bij games waar een game van 60 USD ook gewoon 60 EUR kost in West-Europa. Ook al staat de euro doorgaans een heel stuk sterker.

En dan heb je nog de prijsverhogingen door cryptominers, verhoogde vraag en dus tekorten door een groeiende markt..

nVidia in Rigs Part 2: ~Porting console-peasantry to PC since 2011~

Nu kan je het argument geven dat er helemaal geen probleem is met hogere prijzen als hun product beter is dan die van de concurrent, en dat er evenzeer geen regels zijn tegen verwarrende namen (zoals Wii vs WiiU). Als je rekening houd met inflatie was er bijvoorbeeld een '3D Blaster' kaart van Creative Labs die 600 USD kostte, en bagger was. En je kan inderdaad argumenteren dat, zolang je geen GTX970, GT1030 (versie DDR4 geheugen ipv GDDR5) of GTX1060 (3GB versie) kocht, je perfect kon weten waar je uw duurverdiende centen aan uitgaf.

Nieuwe technologieën ontwikkelen en promoten is hoe we vooruitgang maken. Competitie moet zelf dan zo snel mogelijk die succesvolle technologie overnemen, en er zelf op verbeteren en/of iets nieuws ontwikkelen. Daar is niets mis mee, zolang dat eerlijk verloopt. Patenten duren maar even om die reden. Wanpraktijken die beloftevolle en interessante technologie doden door het te herleiden tot een gimmick, is een ander paar mouwen. En druk zetten op andere ondernemingen zodat ze wijzigingen aanbrengen die prestaties voor iedereen doen kelderen, is het omgekeerde van vooruitgang. Maar het ergste van alles, was het introduceren van peasantry in de PC-gaming en hardware markt. Om te begrijpen hoeveel schade Nvidia heeft toegebracht, en hoe ze dit hebben gedaan, moeten we tijdje terug beginnen.

PhysX is een dergelijke technologie die nog altijd enorm beloftevol en interessant lijkt, ondanks dat het al uitgebracht was door Ageia in het begin van de eeuw. Ageia bracht een nieuwe uitbreidingskaart, de PPU (Physics Processing Unit) om samen te werken met de CPU en GPU. Met PhysX was het eindelijk mogelijk om onder meer stukken die afbreken of rondvliegen, of het wapperen van doeken en kledij erg realistisch en indrukwekkend te laten lijken. Normaal zou de hoeveelheid rekenkracht dat dit van de GPU of CPU verreist het niet echt een redelijke keuze maken om dit te doen. Het zou ook niet ondenkbaar zijn dat physica een groter onderdeel van de gameplay is omwille van die reden. Dit klinkt zelfs vandaag de dag nog interessant sinds dit in principe maar in zeer beperkte mate het geval is nu. Alhoewel het voor velen moeilijk kan zijn om in te beelden dat games er veel bewegelijker uit hadden kunnen zien. Alook dat de gameplay veel diverser en complexer had kunnen zijn.

In onze tijdlijn heeft Nvidia het bedrijf opgekocht. Terwijl het niet echt interessant was omwille van extra kost en latency (vertragingen) had de technologie ondanks de verwerving van NVidia een toekomst. Vandaag de dag zijn er softwarematige alternatieven, en deze zijn vaak inbegrepen in de game-engines. Maar tot ze vele jaren later uiteindelijk PhysX opensource maakte kon je alleen gebruik maken van softwarematige versie die op de CPU moest draaien. Het probleem daarmee was dat ze gebruik maakte van een zeer inefficiente instructieset, ipv wat beter zou werken. Hardware-accelerated PhysX kon je nog altijd krijgen door gewoon een goedkope Nvidia kaart erbij in te steken. Dit was een zeer interessante optie destijds en trouw aan het orginele concept, maar dit werd al snel gesaboteerd. Mensen die een kaart kochten voor deze reden werden ook niet vergoed voor de verloren functionaliteit van hun PPU-kaart.

Verkeerd gebruik van deze technologie maakt het probleem enkel erger. Toen ik Project Cars kocht draaide ik dit op een zeer krachtig systeem met een 8-core CPU met hoge kloksnelheid en een krachtige Sapphire AMD-kaart. Het spel draaide absoluut verschrikkelijk en de oorzaak leek erg simpel. Wat de hele discussie zo heel erg ingewikkeld en vervelend maakte was dat de ontwikkelingstudio 'Slighly Mad Studios' onvoldoende transparant was over veel kwesties. Ze zeiden dat ze gebruik maakte van software-matige PhysX op de CPU. En dat dit maar een klein deel van de CPU-kracht verreist. Maar veel van de mensen met baggere prestaties gebruikte zelfs een Intel CPU en dit zou hoe dan ook geen probleem moeten zijn dan met de grafische kaart. Ze zeiden ook dat AMD in de fout was omdat ze niet genoeg werk hadden geleverd om het spel goed te laten werken in hun drivers, maar waarom zou de hardware fabrikant moeten zorgen dat het spel speelbaar is? Dit incident maakte vanaf toen duidelijk dat de fabrikanten heel erg betrokken zijn met optimalizatie voor grote titels. Maar dat het helemaal niet draait kan niet op hen gestoken worden. Ergens klopt er iets niet. Afhankelijkheid van op maat gemaakte drivers is al een ernstig probleem. En dan strooien ze nog eens met zout in de wonde door advertentieborden met Nvidia logos langs de circuits te zetten. Nergens werd er een woord gerept over waarom een spel dat dus duidelijk niet af was sinds, in deze staat werd uitgebracht. Ze gaven toe zich bewust te zijn van problemen.

Het was waarschijnlijk niet zo controversieel als we dit soort problemen niet vaker zagen. De grotere problemen kwamen met tesselation. Dit was een technologie die als eerste werd ontwikkeld door ATI/AMD. Dit is weeral erg beloftevolle technologie die vandaag ook ten volle benut wordt, en het was zeker geen slechte zaak dat Nvidia hier zwaar op inzette. Het staat toe om veel detail toe te voegen en ontwikkelingstijd te besparen. Wat tesselation in principe doet is meer en beter reliëf gaven aan objecten (een serieuze oververeendvoudiging, maar goed genoeg). Net omdat Nvidia kaarten hier beter in waren werd iedereen, ook Nvidia-kopers, slachtoffers van een boel onzin. Games zoals (maar niet enkel) Crysis 2, gebruikte op perfect vlakke of eenvoudige objecten, en in niet zichtbare plaatsen (bv: onzichtbare supercomplexe oceaan oppervlaktes) ontzettend grote hoeveelheden tesselatie. Dit zorgde dat het spel voor iedereen veel slechter draaide zonder enige toegevoegde waarde. Maar wat slecht zou draaien op een Nvidia kaart, werd onspeelbaar op een AMD kaart. Dus het was het waard. Het is technologie dat enorm veel detail kan toevoegen aan oppervlaktes, als het juist gebruikt wordt. Het kan toch niet zijn dat men vergeten is dat framerates bestaan? De site Techreport ging hier verder op in illustreert het probleem netjes.

Dat de hoogste settings, zonder visuele meerwaarde, op de hoogste settings beter presteren op Nvidia kaarten zorgt dat objectief lijkende benchmark grafieken een misleidend beeld geven van wat de kaarten toe in staat zijn om in beeld te brengen. Verder zorgt het er ook voor dat oudere kaarten van Nvidia veel minder relevant lijken dan eigenlijk het geval zou zijn. Wat dan weer ruikt naar "planned obsolesence". Zeker omdat de nieuwere GTX960 beter presteerde dan de in theorie veel krachtigere GTX 780. Met Hairworks in the 'Witcher 3' kon je het tenminste uitzetten zodat je game er nog steeds zowat hetzelfde uitzag (behalve bij bepaalde beesten). Maar het probleem blijft dat de hoogste settings enkel de technologie toepaste die één van de twee kon optimaliseren. In tegenstelling daartoe gebruikte bijvoorbeeld 'Tomb Raider' het open AMD alternatief TressFX van AMD, en kon Nvidia perfect deze haar-effect technologie ondersteunen. En in tegenstelling tot Nvidia had de AMD is daarna geen enorme prestatiepenaltie.

Elke keer weer lijkt alles goed te gaan tot een game een "Nvidia Gameworks" titel wordt. Waardoor de ontwikkelaar een aanzienlijk deel van de consumenten verwaarloosd. In het geval van Witcher 3 was ook AMD enorm betrokken bij de ontwikkeling van de game tot het plots een Hairworks titel werd. Het is onredelijk om te verwachten dat iedereen met de settings gaat prullen en zelf gaat beseffen dat de game er ongeveer evengoed uitziet met Tesselation (Hairworks gebruikt dit) op "x16" als op "x64". Maar nogmaals raakt het de competitie harder, ook als het nadelig is voor Nvidia-kaart bezitters. Elke keer is er onnodige verwarring en word (incorrect) het idee meegegeven dat je het juiste merk moet kiezen om je spel naar behoren te laten werken. Het brengt hele discussies op forums en in comment sections die niet verschillen tussen het geruzie van "console peasants". Terwijl het allemaal gemeden had kunnen worden. In alle gevallen had het perfect voor iedereen had kunnen werken zoals met 'Tomb Raider' als de ontwikkelaars een open standaard' kozen. Of als ze om de één of andere reden (we kunnen enkel raden) overtuigd zijn om diep met Nvidia in zee te gaan, dat ze extra opletten voor enorm performance-verlies.

Een redelijke vraag om te stellen is of er ook iets niet pluis is wanneer ATI/AMD kaarten beter werken. Het antwoord is ja. Maar niet in het voordeel van AMD/ATI. Het is blijkbaar geheel onaanvaardbaar dat een game beter kan werken op een ATI/AMD kaart dan de Nvidia tegenhanger. Assassin's Creed maakte deel uit van Nvidia’s "The Way It’s Meant To Be Played" programma. Een up-to-date installatie van Windows zorgde dat je het kon spelen met DX10.1, wat beter werkte op de andere hun hardware. Dit was simpelweg omdat Nvidia de nieuwere technologie niet ondersteunde en AMD wel. Waardoor het spel een aanzienlijk stuk beter werkte (en ietsje beter uitzag) bij AMD. In plaats van ervoor te zorgen dat het spel gewoon in DX9 werkte voor Nvidia hadden ze het zonder pardon helemaal verwijderd. Het is niet voor iedereen even overtuigend dat dit niet was omdat er grafieken zijn waarop de rode bar eens een keertje er een stukje beter uitzag dan de groene. En weeral werd er benadrukt dat er geen centen bij de partnerschap gemoeit waren.

Dat er geen geld gemoeit was bij Ashes of the Singularity zou iedereen hebben geloofd. Er was geen partnerschap met de één of de ander. En de ontwikkelaar deelde de broncode in het geheel met zowel Nvidia als AMD. Beiden konden suggesties maken voor veranderingen. Dit is een sterk contrast met Gameworks titels. Maar dit soort zaken zou nogmaals geheel onnodig moeten zijn. AMD had ingezet op async (asynchronous computing) ondersteuning in hun kaarten. Dit was een goede beslissing sinds het enorm hielp bij DX12, Mantal en Vulkan (opensource) en de Metal (Apple) APIs. Het zorgde voor aanzienlijke prestatieverbeteringen. AMD was hier ook zwaarder in geïnvesteerd omdat ze chips voor consoles maakte waarbij dit extra belangrijk kan zijn. Ook Nvidia ondersteunde Async in theorie, maar hield dit uitgeschakeld omdat het niet goed werkte. Er leek destijds dus niets te zijn (en dit was ook niet) dat hen tegenhield om met hun nieuwe kaarten de problemen op te lossen, en mee te genieten van de prestatiewinst. Vooruitgang voor iedereen! De ontwikkelaars maakte ook duidelijk dat als wanneer het spel uit zou komen dat async uitgeschakeld zou zijn voor Nvidia gamers om problemen en eventueel prestatieverlies te voorkomen. Het spel zou goed genoeg werken voor iedereen als het uitkwam. Geen drama nodig.

Niet als Nvidia daar iets over te zeggen heeft. Nvidia zag dat de benchmarks voor AMD beter waren en wou, dat Async in het geheel uitgeschakeld zou worden voor absoluut iedereen. Ze ijverde niet voor een benchmark waar het beste resultaat voor iedereen zichtbaar was. Als Nvidia niet aan de top staat, moet iedereen boeten. Toen de ontwikkelaars simpelweg nee zeiden, ging Nvidia in de aanval ondanks dat het spel nog in ontwikkeling was. Met uitspraken dat het spel geen goede vertegenwoordiging is van wat DX12 te bieden heeft. Dit kwam omdat Ashes of the Singularity het eerste spel ging zijn dat met DX12 werkte. Het was niet vreemd dat de huidige kaarten van Nvidia het niet zo goed ondersteunde. Zelfs erg begrijpelijk. Maar de druk die ze uitoefende op de ontwikkelaars, alsook hun uitspraken over te verwachten prestaties, waren onjuist. Ze konden gewoon niet één enkele keer aanvaarden om de tweede te zijn.


nVidia the Company: The way we are ALL meant to be played

We hebben nu al een heel stuk toegewijd aan het perspectief van de consument. Maar er is veel dat een gamer of techfanaat niet ziet. Ook hier kunnen we er niet onderuit. Als je Intel straf vondt dan heb je nog niets gezien. Er valt niet echt rond te pot te dansen dus ik hou het simpel. Als bedrijf, is nVidia het schoolvoorbeeld van een [REDACTED]. De beslissingen die gemaakt worden zijn niet alleen anti-consument, maar ook anti-competief. Het is echt rot om te moeten toegeven dat een groot deel van het enthousiasme in PC gaming hardware vervangen werdt door skepticisme en achterdocht, door de vele praktijken die nVidia heeft uitgehaald. Normaal was het zo eenvoudig, je koopt de kaart die het beste leek, stopte het in je PC en maakte je voor de rest geen zorgen. Maar die tijden zijn voorbij.

Vlak nadat hun verhaal begint zijn er rechtzaken over gestolen-technologie (patent-diefstal) waarin ze meteen vochten met bijna alle competitie. Geen van dewelke tot het einde onderzocht werd. Ze opende strategische tegenaanklachten die leidde tot 'settlements'. Ouwe rotten zijn niet vergeten hoe dit tot het einde van 3dfx, en de overname van hun technologie en ingenieurs teweegbracht. Dit is niet het soort wangedrag dat typisch is aan beginnende ondernemingen, maar eerder gevestigde ondernemingen die opkomelingen voorbarig de kop indrukken. Het was dus extra brutaal en kenmerkend voor wat ging komen. Aangezien het moeilijk is om met zekerheid te zeggen wat er allemaal precies is gebeurd, zou je hun het voordeel van de twijfel kunnen gunnen. Maar wat volgde was niet alleen een verschikkelijke houding ten opzichte van slechts de competitie, maar ook (voormalige) partners. Het werd al snel duidelijk met wat voor beest we te maken hadden. Intel begon er haast schattig en onschuldig uit te zien. Zeker eens nVidia hun gelijke had gevonden in hun conflict met niet alleen Intel, maar ook één van hun voormalige partners: Apple. In de laatste zagen velen dat ze elkaars gelijke hadde gevonden op vlak van ego. Wat er ook gebeurd, de modus operandi is hoe dan ook altijd: 'geef anderen de schuld'. Zelfs wanneer het ronduit absurd is. Zelfs als ze al vele jaren handelspartners zijn. Het belangrijkste is, nogmaals, dat er nooit een instantie, kan of mag zijn, waarin hun product er slechter uitzag dan de competitie.

Het misleiden van de pers en consument is iets dat altijd in bepaalde maten wordt gedaan om je product of merk er beter te laten uitzien. Het is wat verwacht wordt. Er zijn echter grenzen die niet overschreden mogen worden. Benchmark tools zijn gestandardiseerde tests die moeten helpen met objectieve evaluatie zodat iedereen op basis ervan de juiste beslissingen kan nemen. Het verschil met Intel was dat het probleem hier een stuk transparanter was. In het geval van Intel benchmarks word de methode aangepast. Maar nVidia knoeid simpelweg met het resultaat. Om het makkelijk uit te leggen werdt hetzelfde gedaan als met het 'Volkswagen uitstoot schandaal'. Eens het product in een testomgeving was, gedraagde het zich anders. Dit was absoluut niet de laatste keer. Dit komt ook nog boven op de getuigenissen van reviewers door de jaren heen dat nVidia de enige is die druk uitoefend over hun testmethodes. Techreviewers moeten praktisch een soort vakbond vormen opdat ze eerlijk hun werk kunnen doen. Een vrij recent voorbeeld hiervan is dat ondermeer reviewsite Techspot en Youtube-kanalen zoals LinusTechTips en 'Gamers Nexus het noodzakelijk vonden om 'Hardware Unboxed' bij te staan. Iedereen begrijpt dat er geen verplichting is, of hoeft te zijn, om gratis exemplaren van je product rond te sturen. Dit is niet iets dat men doet uit goedewil, maar omdat potentiële klanten op voorhand inlichten goed voor zaken is. En we weten evenzeer dat omkoperij, manipulatie en dreigementen niet kunnen.

Ook kaart-fabrikanten hebben het niet makkelijk. Terwijl zowel Nvidia (XFX) als AMD (Palit) doorheen de jaren grensoverschrijdend bemoeide met AIB (Add-in-board) fabrikanten hun beslissingen, wil dit niet zeggen dat het gebeurde in gelijke mate. Het werd het pas echt halucinant in maart 2018. Om even de context te geven van de situatie. Nvidia had duidelijk een overweldigende meerderheid van het marktaandeel, ergens tussen twee derde en drie vierde van de dGPU markt. En door de "miningboom" waren er al minder kaarten beschikbaar voor het toenemend aantal gamers. Veel van de AIB fabrikanten zijn als bedrijg (bijna) geheel afhankelijk van hun inkomsten van Nvidia. En ze zijn waarschijnlijk ook niet vergeten wat er met XFX is gebeurd. Niet dat die voorkennis nodig was om te zien wat hen te wachten kon komen te staan. In die situatie, kondigde Nvidia hun 'GeForce Partner Program' (GPP) aan.


nVidia the Company: With partners like these, who needs competition?

Alles dat gezegd werd kon duidelijk een dubbele betekenis hebben, of kwam over als onoprecht. De titel van de aankondiging is: "GeForce Partner Program Helps Gamers Know What They’re Buying". Klonk al redelijk absurd van het bedrijf dat rond diezelfde tijd afkwam met GTX970, GT1030, GTX1060 en zeer verwarrende benamingen voor enkele Titan kaarten. Het hele artikel was erg verwarrend sinds ze een onbestaand probleem, dat mensen niet goed konden weten wat ze kochten, aan als de reden achter het programma. En het was blijkbaar nodig om gerust te stellen dat het niet exclusief was, dat men nog altijd producten van iedereen mocht verkopen als men deelnam, en dat er geen voorafbetalingen of kortingen verplicht waren. Het enige dat er een beetje gevaarlijk uitzag was: "And GPP partners will get early access to our latest innovations, and work closely with our engineering team to bring the newest technologies to gamers." Wat wou zeggen dat niet deelnemen aan het programma nadelig zou zijn. Het woord 'transparant' of 'transparantheid' kwam er veel in voor. Maar er ontbrak duidelijk een zeer belangrijk iets. Wat hield het programma precies in?

Kyle Bennett van HardOCP had blijkbaar hints gekregen van Nvidia's concurrent dat er wat gaande was, en hun (en waarschijnlijk anderen) vragen aan het adres van Nvidia zouden volgens hen geleid hebben tot de bekendmaking in de eerste plaats. Als dit waar is ondermijnt het op zich al enige praat over transparantie. De volgende vertaling van een groot stuk van zijn artikel dat een week later op 8 maart uitkwam, zou het ontbrekende deel kunnen verklaren.


Toegegeven, GPP lijkt op eerste zicht als een goed programma, maar na de afgelopen weken de documentatie en interviews met OEMs en AIBs te onderzoeken, verdwenen de goede indruk al snel. HardOCP is al meer dan twintig jaar in de business van computer hardware reviews, en we hebben onderweg een overvloed van contacten verworven. In voorbereiding van dit artikel hebben we de laatste drie weken met OEMs en AIB fabrikanten, die op grote schaal met Nvidia zaken doen, gesproken. Aangezien hoe GPP helemaal ging over "transparantie", zou je denken dat ze stonden te springen om wat gratis media aandacht te krijgen over hoe ze deel uit maken van het GPP programma.

We hebben contact genomen met zeven bedrijven om te horen over hun betrokkenheid met Nvidia GPP, en niet één van de zeven wou openlijk met ons erover spreken. Onze contacten die wél met ons spraken deden dit anoniem uit angst om hun jobs te verliezen, of uit vrees voor vergelding van hun bedrijf of Nvidia. Al degene die werkte bij de OEMs en AIBs hadden echter dezelfde bedenkingen over GPP. Allereerst: dat er voorwaarden waren die waarschijnlijk illegaal zouden zijn. Ten tweede: dat GPP consumenten-keuze enorm zou schaden. En ten derde: dat het zaken die ze met andere firmas hebben zou verstoren, namelijk AMD en Intel.

Het kernpunt van het probleem is één enkele voorwaarde om deel uit te maken van GPP. Om toegang te hebben tot het programma moet partners hun "gaming-merk exclusief voor GeForce" te maken. Ik heb deze documenten, met de verreiste er duidelijk op, zelf gelezen.

Wat wil het, in het engels "Gaming Brand Aligned Exclusively With GeForce?", zeggen? Een voorbeeld dat het best zou aansluiten bij HardOCP lezers is ASUS hun 'Republic of Gamers' merk. Ik weet niet of ASUS een GPP partner is, ik gebruik het ROG merk simpelweg als een mogelijk voorbeeld. Als ASUS een GPP partner is, en het zou gebruik willen blijven maken van Nvidia GPUs in hun ROG videokaarten, computers en laptops, dan kunnen ze niet langer ander bedrijven hun GPUs gebruiken in ROG producten. Dus ASUS hun ROG kaarten kunnen dan niet langer AMD gebaseerd zijn, als GPP partner.

Nvidia zal je vertellen dat het 100% aan het partner bedrijf is om te kiezen met GPP mee te doen. En van wat ik uit de documenten kon opmaken, mochten ze kiezen niet mee te doen, verliezen ze de voordelen van GPP lidschap waaronder (in het engels): high-effort engineering engagements -- early tech engagement -- launch partner status -- game bundling -- sales rebate programs -- social media and PR support -- marketing reports -- Marketing Development Funds (MDF). Dat laatste is waarschijnlijk het belangrijkste in de lijst van verloren voordelen.

Zoals u zich mogelijk kan herinneren, hebben we zulke nijpende voorwaarden als diegene die we in de GPP vinden veel gelijkenissen met Intel's ooit monopolistische handelspraktijken (tegen AMD) in het weerhouden van MDF aan partners. Het gevolg hiervan waren meerdere miljarden aan boetes voor Intel. (Het artikel bevat ter illustratie een link naar een verklaring van Amerika's Federale Handelscomissie)

Wat verontrustend is, is dat ons verteld was dat als een bedrijf niet deelneemt aan GPP, deze bedrijven het gevoel hebben dat Nvidia hen zou terughouden in de allocatie van GPUs. Volgenss allen met wie we hebben gesproken, is het probleem dat niet-leden geen GPU voorraden toegewezen krijgen niet contractueel neergeschreven, maar indirect meegedeeld.

De redenen voor het bestaan van de GPP zijn in eerste opzicht nogal verwarrend. Waarom zou een bedrijf dat ongeveer 70% marktaandeel heeft, en geen competitie in het hoogste segment, zoiets doen? Velen met wie ik gesproken heb trekken de legaliteit van het GeForce Partner Program volledig in twijfel. Interessant genoeg, denken we dat de oorsprong van GPP een tijd terug ligt, en mogelijk verband houd met iets waar we het over hadden in 2016. Dat was toen we voor het eerst vernamen dat Intel zou samenwerken met Intel omtrent GPUs. Wij geloven dat Nvidia een ander "exclusief" plan ging uitvoeren, hoewel onder een andere naam, en dat het GPP dat we nu zien een deel uitmaakt van dit vorige plan.

Eén ding waar we zeker van zijn is dat Nvidia doorheen de jaren veel vijanden heeft gemaakt. Je kan makkelijk AMD, Apple en Intel op die lijst zetten. Wij denken dat GPP ietswat het resultaat is van deze "geschillen" waarbij Nvidia poogt om meer controle te krijgen over de markt terwijl het hun concurrentie producten ziet ontwikkelen (bv: die van AMD en Intel hun samenwerking) die niet toegankelijk zullen zijn voor Nvidia.

Verder bevat het artikel enkele toevoegingen in verband met hoe Nvidia heeft gereageerd op hun artikel. Ze kregen blijkbaar ook te horen dat als ze dit artikel publiceerde het "de relatie tussen HardOCP en Nvidia zou kunnen schaden". De exacte verwoording doet mij eerlijk gezegt onmiddelijk terugdenken aan één van de standaard antwoorden van de Chinese Communistische Partij als anderen wreedheden aankaarten..

Het verhaal zelf werd doorgaans ook geloofwaardig geacht. De conclussie die iedereen destijds maakte, was dat het opzet van GPP was om de lang gevestigde gaming-merken en namen te koppelen aan Nvidia. Daardoor zouden de producten van hun competitie ondergeschikt en minderwaardig lijken. Ze hielden immers het overgrote aandeel van de marketshare en mindshare. De kans dat ze met een nieuwe productlijn zouden komen voor Nvidia, was nihil. De bevestiging van dit algemeen vermoeden liet niet lang op zich wachten. ASUS haalde AMD weg uit het iconische en lang bestaande 'ROG', en maakte de AREZ productlijn voor AMD.

De storm rond GPP wou niet gaan liggen. De tech en gaming communities bleven proberen om te achterhalen wat er precies aan de hand was. Er bestond al snel geen twijfel meer over de angst die de fabrikanten hadden van Nvidia. Nog geen maand later besloot Nvidia om het programma te beëindigen en deelde ze ondermeer het volgende mee: "Er is veel gezegt over ons GeForce Partner Programma. De geruchten, verzinsels en onwaarheden gaan veel verder dan onze bedoelingen. Eerder dan tegen misinformatie te vechten, hebben we besloot het programma stop te zetten." Alsook een herhaling van de vorige onzin over hoe het de bedoeling was dat klanten konden weten wat ze kochten, en dat het blijkbaar nog niet duidelijk genoeg was.

Niet geheel onverwacht van Nvidia, maar er zijn hier twee problemen met dit antwoord. Ten eerste is het ronduit beledigend naar iedereen toe hoe ze slachtoffer spelen. Dat er geen enkele lek was, ondanks hoe furieus de fabrikanten ongetwijfeld waren, was wellicht omdat de kans groot was dat er subtiele verschillen waren tussen de "transparante" overeenkomsten. Zo zou Nvidia kunnen weten wie er heeft geklikt. De enige oplossing daarvoor zou zijn dat alle Nvidia partners, ondanks hun harde competitie met elkaar, zouden samenwerken. Al is de kans groot dat dit dan weer illegaal zou zijn omdat Nvidia wellicht een geheimhoudingsverklaring met hun sloot. We kunnen tot vandaag enkel gissen.

Het tweede is, dat indien ze echt slachtoffer waren van "geruchten, verzinsels en onwaarheden" de betere oplossing was om zelf de overeenkomsten publiek te maken. Waarom hebben ze dit niet gedaan? Zou het misschien kunnen, zoals veel van die geruchten vermoeden, dat verscheidene handelscommissies in Amerika, Europa en Azië er bezwaarlijk materiaal in hadden gevonden? Het zal waarschijnlijk weer onze fantasie zijn die weer op hol aan het slaan is.


nVidia the Company: Het oordeel van de meest objectieve en neutrale partij

We hebben het dus gehad over hoe ten opzichte van zowel de consument, als de rest van de hardware-industrie, Nvida zonder enige twijfel een eerste klasse [REDACTED] is. Maar wat als dit voor iemand alsnog niet genoeg is? Wat als iemand denkt dat Nvidia onterecht geviseerd word? Of wat als dit allemaal helemaal zo uitzonderlijk niet is, en Nvidia de enige is waarbij deze problemen uitkomen? Misschien is dit gewoon hoe business is, en zijn de rest gewoon boze rode communisten die niet begrijpen hoe bikkelharde kapitalistische competitie er uit ziet? Er bestaat toch niemand van wie je kan aannemen dat ze, zonder eigenbelang tegen Nvidia in, hierover kunnen praten?

Voor deze twijfelaars heb ik goed nieuws! Er is bestaat wel degelijk een dergelijke organisatie. Een die met de hele tech-industrie samenwerkt, en waarvan het ook in hun belang is om met iedereen goed om te kunnen. Je zal moeilijk een organisatie vinden waar zoveel kapitalische belangen in gemoeid is, en die nog transparanter is!

Ik heb het over "The Linux Foundation". Ik ga in een ander deel van het boek verder in op Linux, maar de verwezenlijkingen van dit (minstens een deel van) besturingssysteem kunnen niet overdreven worden. Van elke van de 500 snelste supercomputers, tot smartphones (Android), tot al je IoT toestellen, tot thuisgebruikers hun computer, tot het Internationaal Ruimtestation, en nu zelfs op de planeet mars, je vindt het overal.

Met bijna 20.000 bijdragende (financieel en/of code) ondernemingen, waaronder grote en rivaliserende namen als ondermeer Microsoft, Facebook, Twitter, Google, Netflix, BBC, Intel, AMD, IBM, Risc-V, Nokia, Huawei, ZTE, Samsung, Sony, Panasonic, Adobe, Amazon, AT&T, Verizon, Orange... Suse, Redhat.. BNP Paribas, HBC, Mitsubishi, Nissan, Suzuki, Toyota.. Een hele hoop universiteiten..

We kunnen blijven gaan over hoe groot en belangrijk de lijst is, en hoe sterk de onderliggende competitie wel kan zijn. Het is één van die organisaties die ontzettend belangrijk zijn, maar waar bijna niemand buiten de sector van gehoord heeft.

Degene die Linux heeft gecreëerd, en tot vandaag aan het hoofd ervan staat, is Linus Torvalds. Een zeer technisch ingesteld persoon met een lage tolerantie voor onzin. Hij is ook bekend voor zijn ongezouten meningen en directheid. De reden dat hij in de techwereld daar wat bekender of beruchter voor is dan anderen heeft vooral te maken met hoe open de communicatie in deze "onderneming" is. De verhalen over Bill Gates, Steve Ballmer en Steve Jobs zijn immers ook niet mals. Toch slaagt de "Linux Foundation" erin om met iedereen samen te werken. Aan en groot ego of bedenkelijke beslissingen ontbreekt het bij veel van de bedrijven in deze onmetelijke lange lijst heus niet.

Nvidia is natuurlijk ook een van de grote bijdragers. Al zullen de eindgebruikers van Linux dat, net als met Adobe en Autodesk, niet noodzakelijk merken. Het moet wel gezegd worden dat zowel Nvidia, al is het na zelfs Microsoft, enorm bijgedraaid is op vlak van opensource en Linux!

Dat is maar goed ook, want in 2012 werd Linus tijdens een bespreking die hij hield in de Aalto Universiteit van Helsinki, gevraagd waarom de student nog steeds problemen had met Nvidia Optimus graphics-chips in laptops (naar het schijnt nog steeds een ellende). Volgens hem is (of was) "Nvidia the single worst company we've ever dealt with". Gevolgd door het zeer bekende opmerking met middelvinger gebaar naar Nvidia toe. Dat dit videofragment steeds weer blijft terugkomen op het internet is echt geen toeval.


AMD in Rigs

En toen, was er enkel nog AMD. Sinds het bedrijf ATI had overgenomen in 2006, hebben ze zowel met Intel als Nvidia twee erg sterke rivalen. AMD begon eigenlijk als een tweede fabrikant voor Intel processoren. Intel gaf licentie aan AMD voor het maken van x86 processsoren. Vanaf 1996 begonnen ze met hun eigen chips te ontwerpen. Al vanaf het begin hebben ze moeten lijden onder corruptie en illegale praktijken van Intel. Iets dat dus van het prille begin in zeer grote en erstige mate gebeurde.

Er zijn wel andere processor fabrikanten, maar als het op laptops en de desktop aankwam had je doorgaans maar twee keuzes. Apple had een tijd lang IBM PowerPC processors, en ARM is in opkomst met Apple als een opkomend producent met hun chips daarvoor. En zowat niemand die geen techie is heeft van de andere, meer niche, processors gehoord..

Om binnen de twintigjarige periode te blijven. Hun sterkste moment was toen ze Athlon op de markt brachten. Dankzij de nieuwe 64-bit en multi-core processoren hadden ze veel krachtigere producten dan Intel. En vaak waren hun prijzen ook voordeliger. Twee erg belangrijke innovaties die toonde dat ze niet langer afhankelijk waren van Intel en die nog steeds aan de basis van vooruitgang liggen. 64-bit zorgde dat we meer dan 4GB aan geheugen kunnen gebruiken, multicore processoren zorgde dat rekenkracht snel kon blijven toenemen en dat meerdere we beter meerdere taken tegelijk kunnen uitvoeren.

Je zou dus verwachten dat ze een enorm groot marktaandeel hadden verworven. En je zou het helemaal mis hebben. Het was geen eerlijke markt, en zelfs geen vrije markt. Intel had na zich niet aan hun overeenkomsten te houden en jarenlang AMD de kop in te drukke met aanslepende legale procedures, corrupte afspraken en omkoperij gebruikt om hun stuk van de taart te behouden.

AMD wist nooit te genieten van hun succes. In 2008 bracht nVidia de Geforce GTX 280 uit voor 650 USD. De Radeon 4870 was praktisch even snel, maar koste slechts 299USD. De Radeon 4850 koste tussen de uiterst populaire 8800GT (170USD) en de 9800 GTX+ (229 USD) in, maar presteerde even goed als het laatste. Vanaf 2008 had ze dus van hun een voorsprong kunnen genieten niet? Wel.. Nee, ze verkochten niet beter dan de concurrentie. En vanaf 2012 waren ze hun voordeel kwijt aan het geraken. Hun betere producten verkochten niet beter. Maar die van de competitie wel. Alles ging een tijd lang mis, tot ze de high-end markt opgaven vanaf de RX 400 reeks.

Over het algemeen heeft AMD een paar voordelen op de CPU en GPU markt tenopzichte van de competitie. De eerste is transparantie, ‘what you see is what you get’. En dat zou helaas vanzelfsprekend moeten zijn. De ander is dat men waarde bied op bugdet en mid-range en zo nu en dan op high-end. Als je de beste balans van prijs en prestaties wil, zit je met hen niet mis zolang je oplet wat je koopt. Sapphire heeft altijd erg goede AMD kaarten aangeboden voor prijzen waar weinig tegenop konden. De FX-4300 en de FX-8350 waren de beste CPUs die ze hadden toen men het slecht deed op de CPU markt. Ze hielden het bedrijf net boven water in puur gaming prestaties. Ze hadden per core lagere prestaties maar boden, er meer aan dan de concurrentie. Iets dat toen wel enkel van pas kwam als je echt een multitasking deed.

Iets waar de meeste gamers of consumenten zich niet zo mee bezig hielden. Ze hadden een vergissing gemaakt, en verondersteld dat software beter van de extra cores gebruik zou maken. Dit is uiteindelijk wel beginnen te gebeuren, en Intel is dus ook begonnen met meer dan vier cores aan te bieden. Soms kan technologie te vroeg komen. AMD was niet in de marktpositie om verandering te pushen, maar ze probeerden toch.

Ook is er een tekortkoming met hun drivers voor hun geintegreerde laptop graphics. Hun poging om in de mobile markt door te breken is niet zo succesvol als de desktop, waar iedereen met open armen Ryzen ontving.

Het is dus een lange geschiedenis van ofwel achterop te lopen, ofwel voorop te lopen maar toch niet beter te verkopen dan de concurrentie. Het helpt ook niet dat er wat consumenten zijn die enkel hen willen zodat Intel of Nvidia hen niet (te hard) afzet, en dus hoe dan ook niet van plan zijn om ooit AMD producten te kopen.

Het voornaamste verwijt dat velen met een slechte indruk van het merk hebben, is dat AMD gewoon niet goed genoeg is. Ik kan absoluut niet zeggen in welke mate tekortkomingen op vlak van competitie terecht aan AMD verwijt kan worden. Het is alsof je een gebrek aan inzet, talent of resultaten verwijt aan iemand die met een molensteen om de nek even snel moet rennen als degene die er kraaienpoten voor blijven zaaien. De Bulldozer architectuur was inderdaad niet bepaald geweldig. Maar gezien de omstandigheden is het een half mirakel dat ze zo sterk hebben kunnen terugkomen met Ryzen.

Mijn grootste hekelpunten met AMD zijn geheel hun eigen fout. Ik heb te vaak een product waar ik naar uitkeek niet kunnen kopen omdat het om een paper-launch ging. Dit wil zeggen dat "oficieel" op papier het product is uitgebracht. Maar dat het niet of nauwelijks beschikbaar is. Ik ben niet zeker dat er ooit ook maar één Ryzen 3 3300X processor in Europa beschikbaar was. En elders was het ook niet veel vets. We kregen een mooie aankondiging en konden op internet zien wat een enorme waarde je voor de prijs kon krijgen.. Als je ze ooit kon krijgen!

Een andere zaak die vaak aangehaald word door gamers zijn "gebrekkige" of slechte drivers. Persoonlijk heb ik nooit problemen ondervonden met de drivers van hun grafische kaarten. Maar ik begin in te zien wat men mogelijk bedoeld. AMD kaarten presteren met de tijd beter, omdat er betere drivers uitkomen. Vaak halen ze na een tijdje de gelijkwaardige kaarten van hun tegenstanders in. Dit word ook wel eens AMD "Fine Wine Technology" genoemd. Het is moeilijk om te zeggen of beperktere middelen ten opzichte van de competitie hier wel de reden voor zijn. Ergens vermoed ik van niet. Het zou mooi zijn, ook voor AMD, als ze onmiddelijk zo goed werkten!

Het laaste probleem dat we als techies met hen kunnen hebben is dat er nogal heel erg veel "leaks" zijn. Tot op het punt dat ik denk dat in plaats van met mensen hun voeten te spelen door voortdurend de "hype machine" te voeden, ze ofwel beter hun officiele aankondigingen sneller doen, ofwel gewoon wachten. En als dit een valse beschuldiging is, wat ik betwijfel, moeten ze wat beter hun best om uit te zoeken hoe dit blijft gebeuren. Mensen beginnen er stillaan onnozel van te worden.


AMD the Company

Laten we meteen even eerlijk zijn. AMD is geen heilig bedrijf. De rebranding van RX400 naar RX500 reeks. terwijl niet even erg als wat nVidia deed met de Geforce 4, is nog altijd misleidend. En ze hebben zich even zeer schuldig gemaakt toen ze met nVidia prijs afspraken probeerde te maken. Wanneer ze in 2008 voor price-fixing werden aangeklaagd, kon rechter William Alsup er ook niet mee lachen dat beiden bezwarende mails probeerde te verbergen als “tradesecrets”. Maar ondanks deze twee zaken moet je al heel erg hard gaan zoeken om echt zaken te vinden waarbij ze opzettlelijk in de fout zijn gegaan.

Tekort komen ten opzichte van de competitie is immers geen opzettelijk kwaad naar de consumenten toe. Al zeker niet als men vast zit in die zwakkere positie omwille van al de praktijken (en meer) waarover we het tot nu toe hebben gehad. AMD is geen 'social purpose' onderneming, maar evenzeer een 'for profit' bedrijf. Het is niet omdat ze minder of niet stinken dat je ze moet gaan knuffelen.

Nu zul je misschien denken dat alles dat aangehaald werd met Intel en nVidia in principe geen probleem is. Het is een vrije markt en ze kunnen hun product noemen en prijzen zoals ze willen. Dus dit maakt allemaal niet uit, als ze betere producten bieden en mensen bereid zijn om die prijzen te betalen is er geen vuiltje aan de lucht. Dit is echter niet helemaal correct. Een vrije markt, zoals de laatste jaren steeds duidelijker werd, is niet hetzelfde als een eerlijke en open markt. Als dit verschil niet duidelijk is, is het de moeite om ondermeer de Amerikaanse telecommarkt te bestuderen. Dus als door de hulp van wanpraktijken ipv echte concurrenctie het marktaandeel, en dus de inkomsten die geínvesteerd kunnen worden, groter is bij concurrenten kom je al snel in een lelijke situatie. Dan heb je maar twee opties, misschien drie, en de rest wordt enkel in leven gehouden zodat het grotere bedrijf het risico van gedwongen opsplitsing mijd en niet onmiddelijk gezien wordt als [REDACTED].

Het eindresultaat is dus niet alleen tragere technologische vooruitgang en een extra (of veel hogere) prijskaart voor nieuwe features, maar ook een hogere prijs en slechtere behandeling van de consument. En in het zeldzame geval dat hun opzettelijk zwak gehouden competitie het vuur aan de schenen leggen, kan men de vraagprijs voor hun veel te dure producten gewoon verlagen om competief te blijven en zo te zorgen dat de achterstand niet word ingehaald. Toen Intel ingehaald werd door AMD Ryzen was dit een uitzondering hierop zoals we ze nog maar zelden zien. De verliezers zijn dus de hele industrie en de consument. En er is maar één winnaar.

Vreemd genoeg kan het zijn dat we op veel vlakken net meer vooruitgang hebben gehad in de opensource wereld net dankzij een nadelige positie. Misschien is de achterstand die we hierdoor hebben in ruwe prestaties en technologieën, net een voordeel op de lange termijn. Opensource technologie is al vele jaren de grootste kracht achter innovatie. En terwijl ook Intel hier wat aan bijdraagt is het vooral AMD die volluit koos voor open standaarden en toegankelijkheid.

Terwijl Microsoft met DirectX ervoor zorgt dat gaming op MacOS en Linux geen kans had, zette zij zich achter Mantle. Wat uiteindelijk Vulkan werd. Toen Nvidia met Gameworks beperkingen oplegde, bracht AMD een open equivalent met GPUOpen. Moest je meer betalen voor speciale monitoren met G-sync, dan promote AMD alweer de bestaande open standaard met Freesync. Gamer met een Nvidia-kaart werden nooit benadeeld door AMD technologieën. Opensource is een langzame, maar duurzame en belangrijke vorm van vooruitgang die niet slechts bedrijven, maar letterlijk de mensheid dient. Hun engagement om Linux zo goed mogelijk te ondersteunen zorgt dat we op Linux goed gebruik kunnen maken van grafische kaarten. Intel helpt al enorm dankzij hun goede bijdrage aan Linux en hun aandeel met iGPUs. Maar wie meer wil, en wie meer nodig heeft wordt goed gedient met AMD. En de optie om zonder problemen toegang te hebben tot krachtige onderdelen in Linux is iets dat steeds belangrijker zal worden voor hardcore PC-gebruikers.

Soms word er wel gezegt dat AMD even erg zou zijn als Intel of Nvidia als zij de marktleiders waren. Maar dat is niet de tijdlijn waarin wij leven. In deze tijdlijn hebben ze telkens weer kunnen bijhalen omdat ze inzette op openheid en toegankelijkheid. Of hun beslissingen dus uit noodzaak of toch uit ideologie waren, kunnen we nooit zeker weten. En eerlijk gezegt maakt het ook niet uit. Niet alles dat slecht ging was de fout van anderen. Ze hebben wel degelijk een aantal slechte beslissingen gemaakt. Maar sinds Lisa Su aan het stuur zit ziet het er steeds beter uit. Zij heeft bewezen dat een goede CEO wel degelijk het verschil kan maken. We kunnen gerust optimistisch zijn.