• You have 1 new Private Message Om du inte är medlem på AMD Forum har du ett nytt privat meddelande som väntar på dig. För att kunna läsa detta måste du registrera dig här.
    • AMD tillverkar färre HD6950 - ökar produktionen av HD6970!


      Flera olika källor tycks bekräfta samma sak och detta är att AMD:s nya Cayman ligger riktigt nära oss nu, men för att AMD ska hinna med sin lansering 2010 har dem tvingats göra vissa åtgärder.

      Först och främst står problemet för AMD:s problematik att få sina nya grafikkort HD6950 och HD6970 på marknaden bakom Texas Instruments som står för en helt ny teknologi för strömförsörjning. Texas Instruments klarar inte av att tillverka tillräckligt många då de redan används i HD6850 och HD6870 men företaget börjar sakta komma ikapp efterfrågan från AMD. Teknologin är så pass ny att ingen information om den finns offentlig och att Texas Instruments inte lagt ut den för försäljning ännu - förutom AMD som fick första tjing.

      På grund av detta måste AMD omprioritera då källor tidigare yttrat sig om att om inte HD6970 lanseras, ska inte HD6850 göra det heller. Igår så skickade AMD inte ut en leverens HD6950 deras partners ivrigt väntat på utan ska istället lägga mer krut och använda de få komponenter man kan få tag på för att tillverka flera HD6970.

      Något vi vet till 100% är att HD6950 och HD6970 existerar, är fullt funktionella och redan nu ute hos recensenter världen över men vi vet fortfarande ingenting om när korten ska lanseras eller när NDA(sekretessavtalten) går ut men tidigare information sedan 2 veckor tillbaka säga 13:e December men det ser ut som att mycket har ändrats. Det ända vi vet är att AMD är fast beslutna om att lansera Cayman innan årsskiftet. HD6990 som är 2 st Cayman GPU:er på samma PCB väntas som planerat släppas i början av 2011.
      Kommentarer 10 Kommentarer
      1. Arrogants avatar
        Arrogant -
        SemiAccurate :: ATI cuts 6950 allocation

        Enligt Semiaccurate är det snarare sista minuten BIOS-ändringar som gör att HD6950 skjuts upp något och alltså inte något rörande faktisk hårdvara. Förmodligen för att försäkra sig om att HD6950 verkligen krossar GTX570. Vart får ni det ifrån att det skulle vara komponentbrist som ligger bakom? Är inte det väldigt gammal information?

        T.ex:

        AMD

        Information som sedan förnekades av AMD som förklarade att det var ett strategiskt beslut att skjuta upp korten snarare än komponentbrist:

        AMD officially comments Cayman delay


        Ni har dock säkert rätt i att AMD lägger mer krut på HD6970. Detta kan ju dock bero på att de får alldeles för "bra" yields. De får alltså helt enkelt för få GPUer som inte duger till annat än HD6950s och på så sätt inte möter kvoterna. 40 nms tillverkningsprocessen är ju trots allt mogen nu och både Nvidia och AMD får bra yields. Jag tror att TSMC/GF faktiskt för en gångs skull lärt sig av sina misstag och faktiskt kan producera kvalitet i stora mängder.
        Detta skulle ju båda gott för kostnaden på ett HD6970 i alla fall och det kanske inte kommer att råda allt för stor brist på dem vid release.

        Jag tror alltså att uppskjutet av Cayman är strategiskt. De insåg väl att HD5870/HD5970 fortfarande säljer och ville bli av med sina sista ex innan releasen av Cayman för att verkligen besegra GTX580. HD5870 är ju faktiskt fortfarande relativt konkurrenskraftig mot GTX580 med tanke på de senaste prissänkningarna. Jag antar att de också ville se vad GTX580 faktiskt presterar så att de kunde tweaka Cayman ytterligare. Och att detta också är fallet vi ser nu i samband med releasen av GTX570.

        Men jag spekulerar givetvis bara! Det kan ju givetvis vara så att det är akut brist på DrMOS-komponenter och att AMD valt att använda de få de har till att tillverka HD6970 snarare än HD6950. Jag har dock för mig att det var samma snack om att komponentbrist låg bakom uppskjutandet av HD6800-korten, men de visade ju sig vara falska. Jag hoppas verkligen att jag har rätt dock, annars kan det bli en lång väntan!

        Läs gärna min/andras kommentarer på Semiaccurate också! Alltid roligt att spekulera!
      1. Jacob Hugossons avatar
        Jacob Hugosson -
        Självklart säger man att det är ett strategiskt beslut än att erkänna att någonting beror på komponentbrist. Sen var det aldrig något direkt fel i framåt slutet av 3:e kvartalet 2009 det handlade mer om att TSMC gav ut helt fel specifikationer till AMD och Nvidia att arbeta med - AMD hann rätta till felen i deras arkitektur och inte Nvidia vilket resulterade i Fermi-katastrofen.

        Men vi får se, HD6900-serien kommer lanseras innan slutet av året det är helt bekräftat och jag känner till flera recensenter som faktiskt har kortet hemma på testbänken så BIOS och klockfrekvenser har varit fastställda ett bra tag nu...
      1. Arrogants avatar
        Arrogant -
        Med tanke på att Nvidia har problem med att få ut GTX580s på marknaden; också förmodligen på grund av brist på diverse komponenter så är det väl relativt sannolikt. Men jag tror ändå att den avgörande faktorn för AMD här har varit strategisk och inte bara något de säger. Det är i alla fall vad samtliga källor jag lyckas hitta påstår.

        Vad menar du med helt "fel specifikationer" förresten? Menar du att de fick fel data rörande de första Fermi-chipsen som de fick från TSMC? Den första silikonen är ju alltid fylld av buggar och måste fixas. Lyckades Nvidia inte göra detta i tid då de fick fel data eller vad menar du?
        Skulle detta ha lett till Fermi-katastrofen (med vilket jag antar att du menar de sjukt dåliga yields de hade i början)?

        Katastrofen tror jag dock personligen beror minst lika mycket på deras krångliga arkitektur. Fermin är ju enorm i jämförelse med Cypress. Detta innebär högre kostnader och mindre rum för error då de får färre chips per wafer än AMD. Men att de dåliga yieldsen har sitt ursprung i att de fick dålig information om den första färdiga silikonen har du säkert rätt i. Om det nu var det du menade.

        Fast tidiga samples som nått ut behöver ju inte vara samma produkt som faktiskt når oss konsumenter. Jag tror fortfarande att AMD filar på sina kort in i det sista för att verkligen krossa GTX5xx-korten på alla plan.
      1. Jacob Hugossons avatar
        Jacob Hugosson -
        Citat Ursprungligen postat av Arrogant Visa inlägg
        Vad menar du med helt "fel specifikationer" förresten? Menar du att de fick fel data rörande de första Fermi-chipsen som de fick från TSMC? Den första silikonen är ju alltid fylld av buggar och måste fixas. Lyckades Nvidia inte göra detta i tid då de fick fel data eller vad menar du?
        Skulle detta ha lett till Fermi-katastrofen (med vilket jag antar att du menar de sjukt dåliga yields de hade i början)?

        Katastrofen tror jag dock personligen beror minst lika mycket på deras krångliga arkitektur. Fermin är ju enorm i jämförelse med Cypress. Detta innebär högre kostnader och mindre rum för error då de får färre chips per wafer än AMD. Men att de dåliga yieldsen har sitt ursprung i att de fick dålig information om den första färdiga silikonen har du säkert rätt i. Om det nu var det du menade.

        Fast tidiga samples som nått ut behöver ju inte vara samma produkt som faktiskt når oss konsumenter. Jag tror fortfarande att AMD filar på sina kort in i det sista för att verkligen krossa GTX5xx-korten på alla plan.
        TSMC gav både AMD och Nvidia specifikationer/data som de både skulle bygga sina arkitekturer runt för 40nm. AMD släppte HD4770 och märkte tidigt problemet med extremt högt strömläckage och yields som var pinsamt låga(20-30%) och lyckades lagga HD5000-serien innan den kom i produktion. Nvidia var senare med att hoppa på 40nm, vilket resulterade i att dom inte hade en "pipe-cleaner" som AMD. Detta orsakade GF100 att misslyckas totalt men när Nvidia märkte problemet var det redan för sent och att göra ändringar i GF100 skulle ta för lång tid så man fick gå med det man hade och göra 2 st re-spins med ändringar i chipets olika metallager så dom blev tvungna att göra det bästa av situation vilket gjorde att GTX480 försenades kraftigt. GTX580 är det chip Nvidia skulle haft från början med GF100 om bara TSMC gett ut rätt specifikationer till AMD och Nvidia från början, och inte gjorde sista minuten ändringar innan 40nm-processen släpptes. Vi ser nu bara på GF110 det tog över 1 år för Nvidia att fixa till arkitekturen så varken AMD eller Nvidia kan göra några sista minuten ändringar hit och dit.

        Anandtech, från en intervju av en av nyckelingenjörerna bakom Evergreen, bland annat hjärnan bakom EyeFinity:
        The Payoff: How RV740 Saved Cypress: The RV870 Story: AMD Showing up to the Fight - AnandTech :: Your Source for Hardware Analysis and News

        Så hade Nvidia gått samma väg som AMD och gjort ett "test-chip" som RV740 så hade kortet med ungefär samma prestanda som GTX580 lanserats ungefär samtidigt som HD5870.

        Fermi-arkitekturen i sig är genial och kommer att följa Nvidia de kommande åren, AMD:s Evergreen-serien visar bara vilka begränsningar deras föråldrade R600-arkitektur då vi knappast ser en bra skalning ju mer shaderprocessor man lägger dit men detta blir det en ändring på när HD69x0 släpps vilket är mer en ny arkitektur än en refresh som dom flesta verkar tro...

        Sen kan jag bara säga att BIOS är färdigt och korten finns ute hos recensenter och självfallet är det samma produkt som når oss recensenter i alla fall vad gäller prestandan, PCB:n kanske är något annorlunda men vad jag förstått det som har designen varit fastställd lite mindre än 2 veckor nu. Med tanke på vilka specifikationer Cayman har så har inte AMD behövt gått in i panic-mode för att klå GTX580
      1. Arrogants avatar
        Arrogant -
        Nu är jag helt med på vad du syftade på när du skrev "fel specifikationer" och jag håller också med dig. Jag var bara tvungen att försäkra mig om vi pratade om samma sak.

        Nvidia hade inte gjort läxan med 40nm. De försökte ju istället glida efter och lära sig av ATI och de problem de mötte på sin väg mot bra 40nms yields.
        ATI vågade ju precis som du skriver experimentera med TSMCs 40nms teknik och lärde sig hur man skulle konstruera chipsen för att kunna få bra yields. Information som de sedan använde till Evergreen.
        De första 40nms chipsen Nvidia försökte tillverka var alldeles för stora och misslyckades helt, de gick inte att tillverka/blev uppskjutna/fick minskas. Dessa chips säljs nu som 300-serien. Med dessa resultat och brist på kunskap (t.ex att de förmodligen måste dubbla mängden VIA-interconnects på framtida designs) försökte de alltså bygga de enorma, krångliga GF100-chipsen. AMD besatt ju redan kunskapen om problemen med VIAs på 40nm och att det krävdes att man flyttade runt transistorerna för att lyckas med 40nm då de hade experimenterat med RV740. Nvidia insåg ju detta allt för sent.
        Det låter dock nästan på dig som att detta var enbart TSMCs fel att Fermin misslyckades till en början, men det var ju minst lika mycket dålig planering av Nvidia.

        Ett problem med TSMC var ju att de hade väldigt varierande transistorer till 40nms tillverkningsprocessen. Vissa läckte mer än andra, vissa var långsammare osv. Detta ledde ju till stora problem för Fermin då dessa transistorer fanns överallt på kislet. Vanligtvis så kan man ju hjälpa dåliga transistorer prestera väl genom att höja spänningen. Men då läckte ju de dåliga transistorerna bara ännu mer och blev varmare än de redan var (TSMCs 40nms process är dessutom väldigt värmekänslig, vilket leder till att transistorerna läcker ännu mer ju varmare det är). Så att höja spänningen var ju inte riktigt vägen att gå, då det blev mycket värre än det redan var (GF100-kretsen är ju trots allt redan en extremt het arkitektur).
        Jag tror att ATI löste sina problem med transistorerna genom att redesigna hela kretsen, men jag lyckas inte hitta något som stöder det nu.

        Alternativt går det väl att stänga av delar på kislet som har för många dåliga transistorer. Men med tanke på hur GF100 är byggd (i kluster) och att de dåliga transistorerna finns över hela kislet så tvingas man stänga av onödigt stora bitar av chipet för att lösa problemen.

        Jag tror dock att det slutade med att Nvidia gjorde någon kombination av de båda metoderna (höjd spänning och mindre kluster) på GTX480 och på sätt "löste" problemen. Fast detta ledde ju i sin tur till att GTX480s klockfrekvenser blev mycket lägre än man tidigare hoppats och att kortet hade högre förbrukning och sämre prestanda än man först trott.

        Med GTX580 så löste dem väl problemen med kassa transistorer genom att byta dem helt till en bättre typ. Om jag kommer ihåg rätt så är detta en av de stora förändringarna med GF110 över tidigare GF100.

        Jag vet inte om jag håller med om att Fermin är särskilt genial med tanke på hur stor den är. Det är på gränsen att den ens går att bygga hos TSMC på grund av sin storlek. Men prestandamässigt så är den absolut mycket potent, men frågan är om den någonsin blir lika effektiv (prestanda/watt bland anant) som AMD/ATIs motsvarigheter.

        Jag är som sagt inte säker, jag tror inte riktigt på att det är komponentbrist som ligger bakom (jag vill inte tro på det i alla fall). Men vi får se som sagt.

        Du kan inte hota dig till några tidiga prestandaspecs kanske?
      1. Jacob Hugossons avatar
        Jacob Hugosson -
        Visst är det Nvidia:s fel också att GF100 misslyckades, men tänk på att om inte TSMC gjort bort sig från första början så hade GF100 faktiskt blivit ett riktigt bra kort som lanserades samtidigt som AMD:s HD5870 och HD5970 så jag lägger mestadelen av skulden på TSMC - och Nvidia lärde sig en läxa den här omgången att det kan vara bra med en test-krets på nya processer dom har alltid varit så restriktiva med att gå ned en processnod sedan fiaskot med deras GeForce 5800FX. Detta hade jag tveklöst velat se för bättre konkurrens och lägre priser under tiden AMD stått helt utan riktigt konkurrens.

        För AMD:s del vart det ett race mot klockan med Evergreen då allt var tvunget att klaffa när de fick göra ändringar i kretsen och det var med nöd och näpe att dom lanserade korten i tid.

        Sen är Fermi helt klart för stor för 40nm, men det säger inte att arkitekturen i sig är dålig. Den är riktigt bra i HPC miljö och ett bra kort för spel men Nvidia behöver gå ner en processnod och krympa kretsen för att den verkligen ska skina. AMD ligger inte ens i närheten med Evergreen och HD68x0-serien när det kommer till riktig SP/DP-prestanda och detta får vi hoppas det blir ändring på när HD69x0 släpps och kommande grafikkort för Nvidia tar HPC-marknaden med storm som det är just nu. Samtidigt måste AMD fixa till ett bättre ramverk än vad dom har idag, Nvidia:s succé beror helt på att dom kommer med ett komplett paket(CUDA) som är relativt enkel att programmera för. AMD saknar en motsvarighet som är lika bra som CUDA.

        Ingen kommer blir besviken på prestandan och särskilt prestanda/watt från AMD så mycket kan jag säga.
      1. Arrogants avatar
        Arrogant -
        Hmm, om jag kommer ihåg rätt så var läckande och värdelösa transistorer problemet med 5800 också. Därav den enorma, helt galna kylaren!

        Annars håller jag med dig i det du skriver i översta stycket. Något jag är lite nyfiken på är vad i h-e Globalfoundries pysslar med vad gäller hela den här historian. Är inte de konkurrenskraftiga längre? Har dålig koll på hur bra de lyckades med t.ex 40nm. Vet du något?

        Hmm, jag skrev aldrig att jag tyckte att den var dålig per definition, men jag är inte det minsta imponerad av den på något sätt.
        Tråkigt för Nvidias del att de tvingades kapa en relativt stor del av Fermins HPCs kapacitet med GF110.

        Sedan vill jag verkligen slå ett slag för OpenCL. OpenCL kommer att vinna i längden; öppna standarder är framtiden. Utan en mängd hemska royalties och annat skräp. Men idag är väl Cuda något bättre får jag väl hålla med om, i alla fall som helhet. Men inte länge till!

        Ujuj, du sitter alltså på insiderinfo? :p Kom igen! Hosta fram datan nu!
      1. Jacob Hugossons avatar
        Jacob Hugosson -
        Citat Ursprungligen postat av Arrogant Visa inlägg
        Hmm, om jag kommer ihåg rätt så var läckande och värdelösa transistorer problemet med 5800 också. Därav den enorma, helt galna kylaren!

        Annars håller jag med dig i det du skriver i översta stycket. Något jag är lite nyfiken på är vad i h-e Globalfoundries pysslar med vad gäller hela den här historian. Är inte de konkurrenskraftiga längre? Har dålig koll på hur bra de lyckades med t.ex 40nm. Vet du något?

        Hmm, jag skrev aldrig att jag tyckte att den var dålig per definition, men jag är inte det minsta imponerad av den på något sätt.
        Tråkigt för Nvidias del att de tvingades kapa en relativt stor del av Fermins HPCs kapacitet med GF110.

        Sedan vill jag verkligen slå ett slag för OpenCL. OpenCL kommer att vinna i längden; öppna standarder är framtiden. Utan en mängd hemska royalties och annat skräp. Men idag är väl Cuda något bättre får jag väl hålla med om. Men inte länge till!

        Ujuj, du sitter alltså på insiderinfo? :p Kom igen! Hosta fram datan nu!
        HD5800 och enorm kylare? Kortet har ju jävligt bra prestanda/watt så jag ser inget problem?

        GlobalFoundries är inte konkurrenskraftiga ännu, det är ett nystartat företag mer eller mindre med en 40nm process som vart färdig låååångt efter TSMC. GlobalFoundries kommer däremot bli en kraft att räkna med på 28nm

        Visst jag hoppas på OpenCL, men idag är de facto CUDA bättre. Det behövs mer arbete på OpenCL innan det kan konkurrera mot CUDA på HPC GPGPU-marknaden.
      1. Arrogants avatar
        Arrogant -
        Vart fick du HD5800 från? Menar givetvis GeForce FX 5800!

        NVIDIA's GeForce FX 5800 Ultra GPU - The Tech Report - Page 2

        Dammsugaren!


        Ungefär som jag trodde då. Vi får väl hoppas att det blir lite konkurrens mellan fabsen!

        OpenCL kommer starkt, jag är helt säker på att OpenCL är framtiden!
      1. Jacob Hugossons avatar
        Jacob Hugosson -
        Citat Ursprungligen postat av Arrogant Visa inlägg
        Vart fick du HD5800 från? Menar givetvis GeForce FX 5800!

        NVIDIA's GeForce FX 5800 Ultra GPU - The Tech Report - Page 2

        Dammsugaren!


        Ungefär som jag trodde då. Vi får väl hoppas att det blir lite konkurrens mellan fabsen!

        OpenCL kommer starkt, jag är helt säker på att OpenCL är framtiden!
        Blä alla kodnamn, ja då är vi överens XD

        Jag tror också på OpenCL, flera stora aktörer pushar på det och Apple är en nyckelpartner där Bara OpenCL mognar kan AMD börja konkurrera mot Nvidia även på HPC-marknaden.
    • Annons

    • Senaste foruminläggen

      Amìrsaman Habibi

      Snälla hjälp mig!!

      Hej alla jag börjar bli ganska desperat då jag inte har hittat någon amd bracket till S: AM3+ då min mamma råkade slänga min gamla! så jag undrar vart

      Amìrsaman Habibi 2014-07-19, 21:46 Gå till det senaste inlägget
      Daniel Andersson

      Officiella humortråden

      Daniel Andersson 2014-07-19, 10:56 Gå till det senaste inlägget
      Jarl

      Vad hör du på just nu?

      Orianthi

      https://www.youtube.com/watch?v=tcDl5iurD_c

      Ger knappast skavsår varesig i öron eller ögon
      :-D

      Jarl 2014-07-06, 08:30 Gå till det senaste inlägget
      Daniel Andersson

      Vad hör du på just nu?

      Daniel Andersson 2014-06-28, 16:38 Gå till det senaste inlägget
      Daniel Andersson

      Vad hör du på just nu?

      Daniel Andersson 2014-06-21, 12:07 Gå till det senaste inlägget
      Daniel Andersson

      Erat senaste inköp?

      Nu har jag äntligen skaffat Nintendo Wii U. Blev ett Premium Pack Mario Kart 8 Bundle. Är så nöjd! Länge sedan jag hade så roligt med ett spel som nu.

      Daniel Andersson 2014-06-11, 22:53 Gå till det senaste inlägget
      Jarl

      Erat senaste inköp?

      Ja den innhåller ungefär motsvarande AMD hårdvaror som finns i min mediaburk, den fick plats på högkant mellan HK förstärkaren och BluRay/HDDVD traven

      Jarl 2014-06-02, 07:52 Gå till det senaste inlägget
      Daniel Andersson

      Erat senaste inköp?

      GP Portable PowerBank 10400. Borde ha köpt en för länge sedan.

      Daniel Andersson 2014-06-01, 20:28 Gå till det senaste inlägget
      Daniel Andersson

      Hjälp!

      Skönt att det löste sig!

      Daniel Andersson 2014-05-29, 18:37 Gå till det senaste inlägget
      stoffeking101

      Hjälp!

      har fixat det nu, bytte sladd mellan datorn och skärmen o nu verkar det funka utan problem men tack för hjälpen!

      stoffeking101 2014-05-29, 18:05 Gå till det senaste inlägget
    • Annons

    • Kalender

      Augusti   2014
      ti on to fr
      1 2
      3 4 5 6 7 8 9
      10 11 12 13 14 15 16
      17 18 19 20 21 22 23
      24 25 26 27 28 29 30
      31

    Sökmotorkonsult