25 maja 2018, Paweł Maziarz

Intel potwierdza 8-rdzeniowe procesory Coffee Lake [AKT. znamy TDP]

Kategoria: Komputery Podzespoły Procesory, Tematyka: intel Procesory Intel Intel Coffee Lake, Producenci: intel

Intel najpierw zaprezentował 6-rdzeniowe układy, a niebawem dołączą do nich 8-rdzeniowe modele. Czy to wpływ procesorów AMD Ryzen?

Procesory Coffee Lake wprowadziły 6 rdzeni do mainstreamowej platformy Intela, ale na tym najprawdopodobniej się nie skończy, bo w planach jest również wydanie 8-rdzeniowych jednostek – tak przynajmniej wskazywały mniej lub bardziej niepotwierdzone przecieki. Ostatnio jednak wpadliśmy na trop, który zdaje się potwierdzać plany wydania takich układów.

Dokładnie chodzi o dokumentację techniczną producenta, w której można było odnaleźć wpisy dotyczące jednostek Coffee Lake-S w konfiguracji 8+2 (później producent je ukrył). Oznaczałoby to, że „niebiescy” rzeczywiście planują wydać 8-rdzeniowe procesory, które dodatkowo zostaną wyposażone w podstawowy układ graficzny GT2 (UHD 630?).

Intel Coffee Lake 8+2

Intel Coffee Lake 8+2

Intel Coffee Lake 8+2

Co prawda jeszcze za wcześnie na omawianie specyfikacji technicznej układów, ale na pewno możemy spodziewać się lepszej wydajności w zastosowaniach wielowątkowych. Według nieoficjalnych przecieków, 8-rdzeniowe procesory będą współpracować z nowymi płytami głównymi z podstawką LGA 1151 i chipsetem Z390 (niedawno takie konstrukcje ujawniła firma Biostar).

Aktualizacja 25.05.2018 9:50

Intel Coffee Lake - TDP 8C

Intel umieścił w swojej bazie dokument, który zdradza informacje o TDP 8-rdzeniowych procesorów Coffee Lake - w planach są jednostki o współczynniku 80 i 95 W (najprawdopodobniej chodzi tutaj o model standardowy i taki z odblokowanym mnożnikiem).

Trochę niepokoi nas wysokie TDP pierwszego modelu, do którego trzeba będzie użyć lepszej klasy chłodzenia (przy 6-rdzeniowych układach wynosił on 65 W). Z drugiej strony nieco zaskakuje zmieszczenie się odblokowanej wersji we współczynniku ze słabszych jednostek (oczywiście chodzi o TDP przy standardowych zegarach).

Źródło: Intel, Reddit

Komentarze

  • Szymon331, #

    Jeśli tylko oprogramowanie bez problemu nadąży z wykorzystaniem tyłu rdzeni to ja jestem za już teraz. Przydałby się ośmio rdzeniowy procesor do pracy za mniej niż 1600 zł... Ciekawe czy jest na to szansa?

  • Finear, #

    o ile program już teraz nie jest wstanie wykorzystac wielu rdzeni to raczej nic sie w tej kwestii nie zmieni

    gry napewno jeszcze przez długie lata beda ledwo 4c obsługiwać z kilkoma wyjątkami

    ja mam nadzieje że ten skok d 8c nie odbije się dużo niższymi zegarami, dla mnie ważniejsze jest single core performance niż sucha ilosc rdzeni

  • kamaleon, #

    No i tu sie mylisz. Wiele gier obsluguje juz teraz 8 watkow bardzo dobrze, a 8 rdzeni spowoduje jeszcze lepsze wykorzystanie ich, bo w koncu to beda prawdziwe rdzeni a nie wirtualne watki HT.

    Na dobre wykorzystanie 16 watkow oczywiscie poczekamy jeszcze dlugo, bo nie kazda gra potrzebuje az takiej mocy i wystarcza 2-4 rdzenie do plynnej gry.

    Co do programow to wiekszosc sie skaluje z iloscia rdzeni niemal liniowo wiec tu bym sie nie martwil. 16 watkow zostanie wykorzystane juz teraz w wiekszosci aplikacji.

  • Finear, #

    wymien coś poza ashes of the singularity co dobrze skaluje sie do 8 rdzeni i gdzie ich ilosc jest ważniejsza niż single core performance

  • lenoxxx, #

    Ty to masz rzeczywiście wielki problem. Niech wprowadzają większą ilość rdzeni dla Kowalskiego a reszta przyjdzie sama. Jeśli nie wprowadzą to logiczne, że nie zaczną pisać gier i programów pod te procesory. Może ty już masz tylko nie chcesz żeby inni mieli co? Taki typowy Polak ;D

  • Finear, #

    skoro przez ostatnie 10lat od kiedy mamy 4c w mainstreamie wiekszosc gier ledwo jest w stanie je wykorzystać to skąd wniosek że teraz gdzie jest 8c to nagle wszyscy sie na to rzuca i zoptymalizuja do 8?

    pozatym pisanie gier które korzystaja z wielu rdzeni jest koszmarne, wiekszosc devów woli ograniczać ilosc wątków bo tak jest latwiej i lepiej. to co da sie rozdzielic to idzie na różne rdzenie ale zazwyczaj są to niezależne zadania, rozrzucenie jednego obliczenia na kilka rdzeni to już co innego i sprawia dużo problemów (i mówie tu konkretnie o grach bo oczywiscie że w innych zastosowaniach jest zupełnie inaczej takie renderowanie video swietnie sie skaluje z rdzeniami własnie dlatego że kazdy z nich może robić swoje i nie polegać na reszcie)

  • lenoxxx, #

    Zobaczymy. Intel dyktuje/dyktował warunki i oczy innych producentów były zwrócone na tę firmę. Teraz po "sukcesie" AMD i dociśnięciu konkurencji może coś się zmieni - oby. Pozostaje czekać bez narzekania.

  • chotnik2, #

    >skoro przez ostatnie 10lat od kiedy mamy 4c w mainstreamie wiekszosc gier ledwo jest w stanie je wykorzystać to skąd wniosek że teraz gdzie jest 8c to nagle wszyscy sie na to rzuca i zoptymalizuja do 8?

    No wlasnie nikt nie pisze na wiecej rdzeni, bo mamy przez ostatnie 10 lat 4c.
    Takie bledne kolo.

  • Robox, #

    Chociażby wiedźmin 3 i watch dogs 2. Obie mocno się dławią przy czterordzeniowych i5, przy czym wiesiek tylko w novigradzie, ale mimo to różnica między 4c/4t a 4c/8t jest tu duża. Zwłaszcza watch dogs 2 idealnie skaluje się na wszystkie dostępne rdzenie i wątki niemal przez cała grę. Wiem, bo w obie gry grałem w momencie przesiadki z i5 na i7.

  • Finear, #

    w3 wedlug benchmarków ma praktycznie taki sam fps na przy 4 co przy 8

  • owatanka, #

    Finear jestes strasznie "ograniczony" przepraszam nie mialo to zle zabrzmiec poprostu masz klapki na oczach i nie widzisz co jest poza pudelkiem przykladowo ja gram sobie na smartfonie w gre strategiczna ale kiedy jestem w domu wlaczam ta gre na emulatorze androida a tam najwyzsze ustawienia wymagaja 4 rdzeni , skoro to gra strategiczna online w czasie rzeczywistym to gdy moj sojusznik z gildi jest atakowany wysylam mu szybko wojsko na wsparcie to nie jest tak ze caly czas gram.

    Emulator sobie dziala a ja tym czasem sobie ogladam filmiki na yt i gadam ze znajomymi na teamspeaku no i juz tutaj twoja koncepcja w moim przypadku mocno kuleje bo 4 rdzenie tak jak mam obecnie to straszna porazka i przymiezam sie do zmiany kompa na procek minimum 8 rdzeni i 16gb ram.

    Tak sie przyzwyczailem do wielowatkowosci na kompie ze poprostu niewyobrazam sobie uzywac w danym momencie tylko jednej aplikacji przykladowo gry , jak gram to i tak dziala emulator i slysze syrene wzywajaca do walki szybko reaguje bo mam sprzet ktory to ogarnia.

    Teraz niestety 4 rdzeniowka nie ogarnia wiec zmieniam.

  • Finear, #

    to. sobie kup 8 czy 12 rdzeniowy jak potrzebujesz przecież nie zabraniam
    mówię tylko ze większość gier i softu nie korzysta nawy z 4 więc dla. wielu aplikacji lepiej mieć mocniejsze 4 rdzenie niz 8 wolniejszy (widać to chociaż by po tym ze i3 w wielu grach jest lepszy od topowe ryzena)

  • Sharimsejn, #

    Nie wiem jak inne gry ale grałem/gram w Wieśka na i5-3570k @4,5Ghz i nie było specjalnych zadyszek przy Ultra. Oczywiście wyłączyłem łajno dające HairTfuWorksy i cienie na medium.

  • xchaotic, #

    A ja sie przysiadam do Wieska juz kolejny raz i mnie gra nie wciaga. Chyba nie moj klimat (chociaz w Skyrim setki godzin)

  • Tomasz Słowik, #

    4690k wykręcone na 4.4 Ghz - żadnych problemów i nawet wygładzanie krawędzi na włoskach na x2 ustawione. 60 klatek jak w mordę strzelił. Hairworksy odpalone, więc coś mnie tu koledzy trochę zaginają rzeczywistość ;)

  • Mkozlowski, #

    Polecam AC: Origins, dlawi się na 4 rdzeniach niemiłosiernie.

  • Finear, #

    to ciekawe bo AC origins mi na 2600k działa swietnie

  • Renji, #

    Mi sie nie dławi na 4 jajach 7700k

  • BrumBrumBrum, #

    o to się nie martw. w krzemie niestety producenci dotarli do ściany, i na jednym rdzeniu większej wydajności już nie wycisną, a jak już to są marne ułamki procenta. jak powszechne staje się "wincyj rdzyniuf", to jeśli producenci chcą by aplikacje chodziły płynnie, muszą to wykorzystać. np. programy do edycji video od jakiegoś czasu już wykorzystują wiele rdzeni. silniki graficzne do gier też coraz śmielej używają wielu rdzeni, chociaż tutaj hamulcem jest DX11 który z CPU tak napawdę daje tylko jeden strumień przetwarzania do grafiki, a gry chwalące się DX12, to jakiś miks trybu zgodności z DX11, co powoduje ten sam efekt wąskiego gardła co w DX11. Gry natywnie pisane pod prawdziwy DX12 (bez żadnych uwstecznień) lub pod Vulcana, mają dużo wyższą wydajność. I właśnie do tego przydaje się 'wincyj rdzyniuf' :)

  • vandam, #

    już dawno istnieje oprogramowanie wykorzystujące wszystkie dostępne rdzenie, nawet jakbyś ich miał 96. Ale jak zawsze - gracze myślą, że komputery są tylko do grania

  • r_e_s_e_t, #

    Tylko taka wielowątkowość jest zarezerwowana dla dość niewielkiej grupy obliczeń. Nawet w programach do grafiki 2D spora część głównych procesów działa jednowątkowo, a w CAD/CAM/DCC praktycznie wszystko jest jednowątkowe z wyjątkiem renderów i symulacji fizycznych. Przy pracy z bardzo dużymi geometriami trzeba po prostu projektować części oddzielnie i przypisywać je do osobnych rdzeni.

    Pod względem wielowątkowości jest wciąż bardzo słabo.

  • BariGT, #

    Takie niskie TDP nie wróży wysokich zegarów niestety.

  • BrumBrumBrum, #

    ponieważ wydajność rdzeń do rdzenia w amd vs intel jest porównywalna, więc intel będący pod ścianą musi dogonić amd w konkurencji "wincyj rdzyniuf" :) no i dobrze.
    problem w tym że przy porównywalnych użytkowo i technologicznie prockach, taki intel traci na:
    1. cena zauważalnie wyższa
    2. intel pokazał, że wydając nowe cpu, wymaga nowej podstawki, chipsetu i tak dalej. czyli upgrade intela jest droższe niż amd
    3. co ja miałem powiedzieć? nieważne :)

  • Eryk333, #

    Super tylko ciekawe jakie ceny będą? :).

  • BrumBrumBrum, #

    na pewno intelowskie, i pewnie tradycyjnie będą problemy z dotychczasowymi podstawkami. spodziewam się konieczności zakupu nowego mobo z nowym chipsetem. zdaje się że intel nie wie co to jest zgodność z podstawką nowo wydanej serii CPU.

  • Gatts-25, #

    Przejście na wyższy stopień a pewnie i jeszcze wyżej wymaga sporych mocy obliczeniowych nie tylko od karty graficznej.Taki "Ray Tracing" starają się aby był obsługiwany nie tylko przez same GPU ale wyspecjalizowane układy AI a jak CPU na tym wypada można zobaczyć lekturze internetu.Szkoda ,że nie został zrobiony test na procesorach INTEL i GPU od NVIDIA bo można byłoby zobaczyć różnice i wiele osób z pewnością by się zdziwiło bo jednak moc teoretyczną układów AMD można jednak wykorzystać.Procesory po prostu od GPU w wersji Threadripper są wolniejsze w sprzyjających okolicznościach pięciokrotnie a ośmiordzeniowe już 10krotnie czy nawet czterordzeniowe się nie liczą.
    Szczęście mamy ,że deweloperzy nie chcą sporo zadań zrzucać na samo CPU i ma to robić GPU ale takie zadania jak liczenie światła w grze w czasie rzeczywistym ,większa ingerencja w otoczenie ze śladami naszej ingerencji oraz uszkodzenia typu zadrapania czy większe rany będą wymagały sporych mocy obliczeniowych nie tylko od GPU czy wyspecjalizowanych układów.Jeżeli rzeczywiście 99% zadań będzie mogło zostać wykonanych przez GPU i wyspecjalizowane układy typu AI to ten 1% być może wystarczy dla 4rdzeniowych CPU jednak wiele zależy także od samego faktu czy procesor z tak małą ilością wątków jest w stanie wykarmić taką moc GPU czy samego AI ,żeby nie być dla nich spowalniaczem ponieważ w przyszłym roku osiągniemy wzrost wydajności na Watt w GPU na poziomie 300% tego co jest teraz.
    Pewny jestem postępu jaki nastąpi od momentu premiery 7nm od GF na przykład zaś nie da się założyć ile gry tworzone na przyszłe generacje sprzętu będą wymagały od CPU.

  • Finear, #

    tak z ciekawosci

    masz jakis plik z tymi wszystkimi komentarzami i po prostu wklejasz taki który pasuje do danego tematu czy piszesz na żywo?

  • r_e_s_e_t, #

    To tylko skrypt do nabijania komentarzy.

  • decrypterie, #

    Najgorsze jest to że to AMD napędza klienta dla intela, sam chciałem wziąść threadrippera ale zapewne nowy i7 będzie mieć wyższy zegar i będzie dużo tańszy a wszystko to dzięki ryzenom. Tak więc jak już kupię i7 to podziękuje AMD

  • chotnik2, #

    sporo chcesz 8C/16T to dlaczego nie 2700X ? po co Ci TR?

  • Kenjiro, #

    Oj, będą grzałki i to spore, bo TDP u Intela jest delikatnie mówiąc, kuriozalne, gdy procesor i5-8400, który ma oznaczenie 65W nagrzewa się nieco bardziej niż 2600X oznaczony 95W...

  • Finear, #

    nie jest to w żaden sposób kuriozalne
    obie fimy w inny sposób podaja i liczą TDP
    wiec nie można porównywac tych 65w intela do 95w amd

    a dodatkowo nawet jak by samo TDP było podane w taki sam sposób to rożnice wynikajace z konstruckji będa dawac inne temperatury, sam rozmiar cpu ma bardzo duże znaczenie

  • Skeletor, #

    Trzeba będzie dobrego i wydajnego chłodzenia. Obecna generacja już potrzebuje. Popularne Spartan czy Fera nie mają szans...

  • Irrlicht, #

    95W – straszne rzeczy. Jeszcze nie tak dawno topowe modele miały po 130-180W i pożary z tego powodu nie wybuchały :-) A wszystkie współczesne procki mają do tego automagiczne hamulce po przekroczeniu określonych odczytów temperatury.

  • Kieresz, #

    noctua przybywaj!

  • rahl_r, #

    Cyt: "Trochę niepokoi nas wysokie TDP pierwszego modelu"
    Paweł ja cię proszę przestań pisać pierdoły.
    i7-7820X ma przy 8c/16t 140W także w 14nm i jakoś nikt afery z tego nie robił.

    Mnie najbardziej niepokoją takie komentarze ze strony redaktora portalu technologicznego.

Dodaj komentarz

Dodawanie komentarzy tylko w wersji dla PC. Już wkrótce wersja mobilna.

Nie przegap

Szanowny Czytelniku.

Aby dalej móc dostarczać Ci materiały redakcyjne i udostępniać nasze usługi, pozostając w zgodzie z zasadami RODO, potrzebujemy również zgody na ewentualne dopasowywanie treści marketingowych do Twojego zachowania. Dbamy o Twoją prywatność. Nie zwiększamy zakresu naszych uprawnień. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności. Dowiedz się więcej.