Prozessor-Cache-Speicher. Ebenen und Funktionsprinzipien. Ein kleiner Vergleich des L3-Cache in Spielen und Anwendungen 3 2 GHz Cache-Größe

Wie wichtig ist L3-Cache für AMD-Prozessoren?

Tatsächlich ist es sinnvoll, Multicore-Prozessoren mit dediziertem Speicher auszustatten, der von allen verfügbaren Kernen gemeinsam genutzt wird. In dieser Rolle kann ein schneller Cache der dritten Ebene (L3) den Zugriff auf die am häufigsten angeforderten Daten erheblich beschleunigen. Dann müssen die Kerne möglichst nicht auf den langsamen Hauptspeicher (RAM) zugreifen.

Zumindest in der Theorie. Kürzlich AMD kündigte den Athlon II X4-Prozessor an, bei dem es sich um ein Phenom II X4-Modell ohne L3-Cache handelt, was darauf hindeutet, dass dies nicht unbedingt erforderlich ist. Wir haben uns entschieden, zwei Prozessoren (mit und ohne L3-Cache) direkt zu vergleichen, um zu testen, wie sich der Cache auf die Leistung auswirkt.

Klicken Sie auf das Bild, um es zu vergrößern.

Wie funktioniert der Cache?

Bevor wir uns mit den Tests befassen, ist es wichtig, einige Grundlagen zu verstehen. Das Funktionsprinzip des Caches ist recht einfach. Der Cache puffert Daten so nah wie möglich an den Prozessorkernen des Prozessors, um CPU-Anfragen an weiter entfernte und langsamere Speicher zu reduzieren. Auf modernen Desktop-Plattformen umfasst die Cache-Hierarchie bis zu drei Ebenen, die dem Zugriff auf den Arbeitsspeicher vorangehen. Darüber hinaus dienen Caches der zweiten und insbesondere dritten Ebene nicht nur der Pufferung von Daten. Ihr Zweck besteht darin, eine Überlastung des Prozessorbusses zu verhindern, wenn die Kerne Informationen austauschen müssen.

Treffer und Fehlschläge

Die Wirksamkeit von Cache-Architekturen wird an der Trefferquote gemessen. Datenanfragen, die vom Cache erfüllt werden können, gelten als Treffer. Wenn angegebenen Cache nicht die erforderlichen Daten enthält, wird die Anforderung weiter entlang der Speicherpipeline weitergeleitet und ein Fehlschlag wird gezählt. Natürlich führen Fehler dazu, dass die Informationsbeschaffung länger dauert. Dadurch entstehen „Blasen“ (Leerlauf) und Verzögerungen in der Rechenpipeline. Treffer hingegen ermöglichen es Ihnen, die maximale Leistung aufrechtzuerhalten.

Cache-Eintrag, Exklusivität, Kohärenz

Ersetzungsrichtlinien legen fest, wie Speicherplatz im Cache für neue Einträge freigegeben wird. Da in den Cache geschriebene Daten irgendwann im Hauptspeicher erscheinen müssen, kann es sein, dass Systeme dies gleichzeitig mit dem Schreiben in den Cache tun (Write-Through) oder die Datenbereiche als „verschmutzt“ markieren (Write-Back) und in sie schreiben Speicher. wenn es aus dem Cache entfernt wird.

Daten in mehreren Cache-Ebenen können exklusiv, also ohne Redundanz, gespeichert werden. Dann finden Sie nicht die gleichen Datenzeilen in zwei unterschiedlichen Cache-Hierarchien. Oder Caches können inklusiv funktionieren, d. h. die unteren Ebenen des Caches enthalten garantiert die darin enthaltenen Daten oberen Ebenen Cache (näher am Prozessorkern). AMD Phenom verwendet einen exklusiven L3-Cache, während Intel eine inklusive Cache-Strategie verfolgt. Kohärenzprotokolle stellen die Integrität und Aktualität der Daten über verschiedene Kerne, Cache-Ebenen und sogar Prozessoren hinweg sicher.

Cachegröße

Ein größerer Cache kann mehr Daten speichern, erhöht jedoch tendenziell die Latenz. Darüber hinaus verbraucht ein großer Cache eine beträchtliche Anzahl an Prozessortransistoren. Daher ist es wichtig, ein Gleichgewicht zwischen Transistorbudget, Chipgröße, Stromverbrauch und Leistung/Latenz zu finden.

Assoziativität

Einträge im RAM können direkt dem Cache zugeordnet werden, d. h. es gibt nur eine Cache-Position für eine Kopie von Daten aus dem RAM, oder sie können n-fach assoziativ sein, d. h. es gibt n mögliche Speicherorte im Cache, an denen sich diese befinden Daten können gespeichert werden. Höhere Assoziativitätsgrade (bis hin zu vollständig assoziativen Caches) bieten eine größere Caching-Flexibilität, da vorhandene Daten im Cache nicht neu geschrieben werden müssen. Mit anderen Worten: Ein hoher n-Grad an Assoziativität garantiert eine höhere Trefferquote, erhöht aber auch die Latenz, da die Überprüfung aller Assoziationen auf einen Treffer mehr Zeit in Anspruch nimmt. Typischerweise ist der höchste Grad der Zuordnung für die letzte Caching-Ebene sinnvoll, da dort die maximale Kapazität verfügbar ist und die Suche nach Daten außerhalb dieses Caches dazu führt, dass der Prozessor auf langsamen RAM zugreift.

Hier einige Beispiele: Core i5 und i7 verwenden 32 KB L1-Cache mit 8-Wege-Assoziativität für Daten und 32 KB L1-Cache mit 4-Wege-Assoziativität für Anweisungen. Verständlicherweise möchte Intel, dass Anweisungen schneller verfügbar sind und der L1-Datencache eine maximale Trefferquote aufweist. L2-Cache Intel-Prozessoren verfügt über 8-Wege-Assoziativität, und der L3-Cache von Intel ist sogar noch intelligenter, da er 16-Wege-Assoziativität implementiert, um Treffer zu maximieren.

AMD verfolgt bei den Phenom II Um mögliche Fehler auszugleichen, wurde die Cache-Kapazität verdoppelt: 64 KB für Daten und 64 KB für Anweisungen. Der L2-Cache verfügt wie das Intel-Design über eine 8-Wege-Assoziativität, der L3-Cache von AMD arbeitet jedoch mit einer 48-Wege-Assoziativität. Die Entscheidung, eine Cache-Architektur einer anderen vorzuziehen, kann jedoch nicht ohne Berücksichtigung der gesamten CPU-Architektur beurteilt werden. Es ist ganz natürlich, dass Testergebnisse praktische Bedeutung haben, und unser Ziel war genau das praktische Prüfung all diese komplexe mehrstufige Caching-Struktur.

Jeder moderne Prozessor verfügt über einen dedizierten Cache, der Prozessoranweisungen und Daten speichert und fast sofort einsatzbereit ist. Diese Ebene wird allgemein als Level 1- oder L1-Cache bezeichnet und wurde erstmals in den 486DX-Prozessoren eingeführt. Kürzlich AMD-Prozessoren Es wurde zum Standard, 64 KB L1-Cache pro Kern (für Daten und Anweisungen) zu verwenden, und Intel-Prozessoren verwenden 32 KB L1-Cache pro Kern (auch für Daten und Anweisungen).

Der L1-Cache erschien erstmals auf den 486DX-Prozessoren und wurde danach zu einem integralen Bestandteil aller modernen CPUs.

Second-Level-Cache (L2) erschien nach der Veröffentlichung des Pentium III auf allen Prozessoren, obwohl die ersten Implementierungen davon auf der Verpackung im Pentium Pro-Prozessor (jedoch nicht auf dem Chip) erfolgten. Moderne Prozessoren sind mit bis zu 6 MB On-Chip-L2-Cache ausgestattet. In der Regel wird dieses Volumen beispielsweise bei einem Intel Core 2 Duo Prozessor auf zwei Kerne aufgeteilt. Typische L2-Konfigurationen bieten 512 KB oder 1 MB Cache pro Kern. Prozessoren mit kleinerem L2-Cache liegen tendenziell im unteren Preisniveau. Unten finden Sie ein Diagramm früher L2-Cache-Implementierungen.

Beim Pentium Pro war der L2-Cache in der Prozessorverpackung enthalten. In den nachfolgenden Generationen des Pentium III und des Athlon wurde der L2-Cache über separate SRAM-Chips implementiert, was damals (1998, 1999) weit verbreitet war.

Die anschließende Ankündigung einer Prozesstechnologie bis 180 nm ermöglichte es den Herstellern endlich, L2-Cache auf dem Prozessorchip zu integrieren.


Die ersten Dual-Core-Prozessoren nutzten einfach bestehende Designs, die zwei Dies pro Paket enthielten. AMD stellte einen Dual-Core-Prozessor auf einem monolithischen Chip vor, fügte einen Speichercontroller und einen Schalter hinzu, und Intel baute für seinen ersten Dual-Core-Prozessor einfach zwei Single-Core-Chips in einem Gehäuse zusammen.


Zum ersten Mal wurde der L2-Cache von zwei Rechenkernen auf Core 2 Duo-Prozessoren gemeinsam genutzt. AMD ging noch einen Schritt weiter und entwickelte seinen ersten Quad-Core-Phenom von Grund auf, und Intel verwendete für seinen ersten Quad-Core-Prozessor erneut zwei Chips, dieses Mal zwei Dual-Core-Core-2-Chips, um die Kosten zu senken.

Den Third-Level-Cache gibt es seit den Anfängen des Alpha 21165-Prozessors (96 KB, 1995 eingeführte Prozessoren) oder des IBM Power 4 (256 KB, 2001). In x86-basierten Architekturen erschien der L3-Cache jedoch erstmals zusammen mit Intel-Modelle Itanium 2, Pentium 4 Extreme (Gallatin, beide Prozessoren im Jahr 2003) und Xeon MP (2006).

Frühe Implementierungen stellten lediglich eine weitere Ebene in der Cache-Hierarchie bereit, obwohl moderne Architekturen den L3-Cache als großen und gemeinsam genutzten Puffer für den Datenaustausch zwischen Kernen verwenden Multi-Core-Prozessoren. Dies wird durch den hohen n-Grad der Assoziativität unterstrichen. Es ist besser, etwas länger im Cache nach Daten zu suchen, als am Ende in eine Situation zu geraten, in der mehrere Kerne sehr langsam auf den Haupt-RAM zugreifen. Mit der bereits erwähnten Phenom-Reihe führte AMD den L3-Cache erstmals auf einem Desktop-Prozessor ein. Der 65-nm-Phenom X4 enthielt 2 MB gemeinsam genutzten L3-Cache, und der moderne 45-nm-Phenom II Intel Core i7- und i5-Prozessoren nutzen 8 MB L3-Cache.

Modern Quad-Core-Prozessoren verfügen über dedizierte L1- und L2-Caches für jeden Kern sowie einen großen L3-Cache, der von allen Kernen gemeinsam genutzt wird. Der gemeinsam genutzte L3-Cache ermöglicht zudem den Austausch von Daten, die die Kerne parallel bearbeiten können.


Bei der Ausführung verschiedener Aufgaben empfängt der Prozessor Ihres Computers erforderliche Blöcke Informationen aus dem RAM. Nach der Verarbeitung schreibt die CPU die erhaltenen Berechnungsergebnisse in den Speicher und empfängt nachfolgende Datenblöcke zur Verarbeitung. Dies wird so lange fortgesetzt, bis die Aufgabe abgeschlossen ist.

Die oben genannten Prozesse werden mit sehr hoher Geschwindigkeit durchgeführt. Allerdings ist die Geschwindigkeit selbst des schnellsten RAM deutlich geringer als die Geschwindigkeit jedes schwachen Prozessors. Jede Aktion, sei es das Schreiben von Informationen oder das Auslesen von Informationen, nimmt viel Zeit in Anspruch. Die Geschwindigkeit des RAM ist zehnmal niedriger als die Geschwindigkeit des Prozessors.

Trotz dieses Unterschieds in der Geschwindigkeit der Informationsverarbeitung bleibt der PC-Prozessor nicht untätig und wartet nicht darauf, dass der RAM Daten ausgibt und empfängt. Der Prozessor arbeitet immer und das alles dank des vorhandenen Cache-Speichers.

Ein Cache ist eine spezielle Art von RAM. Der Prozessor verwendet einen Cache-Speicher, um die Kopien der Informationen aus dem Haupt-RAM des Computers zu speichern, auf die wahrscheinlich in naher Zukunft zugegriffen wird.

Im Wesentlichen fungiert der Cache-Speicher als Hochgeschwindigkeits-Speicherpuffer, der Informationen speichert, die der Prozessor möglicherweise benötigt. Dadurch erhält der Prozessor die benötigten Daten zehnmal schneller als beim Auslesen aus dem RAM.

Der Hauptunterschied zwischen einem Cache-Speicher und einem regulären Puffer besteht in den integrierten logischen Funktionen. Der Puffer speichert zufällige Daten, die üblicherweise nach dem Schema „Zuerst empfangen, zuerst ausgegeben“ oder „Zuerst empfangen, zuletzt ausgegeben“ verarbeitet werden. Der Speichercache enthält Daten, auf die wahrscheinlich in naher Zukunft zugegriffen wird. Dank des „Smart Cache“ kann der Prozessor daher mit voller Geschwindigkeit arbeiten und muss nicht darauf warten, dass Daten aus dem langsameren RAM abgerufen werden.

Grundtypen und Ebenen des Cache-Speichers L1 L2 L3

Der Cache-Speicher besteht aus statischen SRAM-Chips (Random Access Memory), auf denen installiert ist Hauptplatine, Mainboard, Motherboard oder im Prozessor eingebaut. Im Vergleich zu anderen Speichertypen kann statischer Speicher mit sehr hohen Geschwindigkeiten arbeiten.

Die Cache-Geschwindigkeit hängt von der Größe des jeweiligen Chips ab. Je größer der Chip, desto schwieriger ist es, eine hohe Geschwindigkeit für seinen Betrieb zu erreichen. Unter Berücksichtigung dieser Funktion wird der Prozessor-Cache-Speicher während der Herstellung in Form mehrerer kleiner Blöcke, sogenannter Ebenen, hergestellt. Am gebräuchlichsten ist heute das dreistufige Cache-System L1, L2, L3:

L1-Cache-Speicher - das kleinste Volumen (nur ein paar Dutzend Kilobyte), aber das schnellste und wichtigste. Es enthält die vom Prozessor am häufigsten verwendeten Daten und läuft ohne Verzögerung. Normalerweise entspricht die Anzahl der L1-Speicherchips der Anzahl der Prozessorkerne, wobei jeder Kern nur auf seinen L1-Chip zugreift.

L2-Cache-Speicher In der Geschwindigkeit ist er dem L1-Speicher unterlegen, aber im Volumen überlegen, das bereits in mehreren hundert Kilobyte gemessen wird. Es ist zur vorübergehenden Aufbewahrung gedacht wichtige Informationen Die Zugriffswahrscheinlichkeit ist geringer als die der im L1-Cache gespeicherten Informationen.

Cache der dritten Ebene L3 - hat das größte Volumen der drei Ebenen (kann mehrere zehn Megabyte erreichen), hat aber auch die langsamste Geschwindigkeit, die immer noch deutlich höher als die Geschwindigkeit des RAM ist. Der L3-Cache-Speicher ist allen Prozessorkernen gemeinsam. Die Speicherebene L3 dient der vorübergehenden Speicherung wichtiger Daten, deren Zugriffswahrscheinlichkeit etwas geringer ist als die der in den ersten beiden Ebenen L1, L2 gespeicherten Informationen. Außerdem sorgt es dafür, dass die Prozessorkerne untereinander kommunizieren.

Einige Prozessormodelle sind mit zwei Cache-Speicherebenen ausgestattet, wobei L2 alle Funktionen von L2 und L3 vereint.

Wenn eine große Cache-Größe nützlich ist.

Sie werden einen deutlichen Effekt eines großen Cache-Volumens spüren, wenn Sie Archivierungsprogramme, in 3D-Spielen, bei der Videoverarbeitung und -kodierung verwenden. Bei relativ „leichten“ Programmen und Anwendungen ist der Unterschied praktisch nicht wahrnehmbar ( Office-Programme, Spieler usw.).

Ich hatte zufällig einen i5 2400-Prozessor in der Hand. Und da ich einen 2600k habe, der über 8 MB L3-Cache gegenüber 6 MB bei einem i5 verfügt, wollte ich sie in Spielen und Anwendungen vergleichen. Da die Zeit begrenzt war, wird es nicht viele Tests geben. Aber um noch mehr Informationen hinzuzufügen, habe ich mit dem Speicher herumgespielt und drei Situationen mit dem i5 2400 simuliert.

1. Konfigurieren Sie mit dem günstigsten Hauptplatine auf einem Chipsatz mit dem „H“-Index, bei dem es keine Übertaktungsoption gibt und die Frequenz aller Kerne 3200 MHz beträgt. Der RAM arbeitet mit 1333 MHz und einem Timing von 9:9:9:27

2. Konfiguration mit einem Motherboard auf einem Chipsatz mit den Indizes „P“ und „Z“, die den Multiplikator von Prozessoren mit Turbo-Boost-Unterstützung um vier Punkte erhöhen können. In meinem Fall kann mit einem i5 2400-Prozessor der Multiplikator von 32 auf 36 erhöht werden, wodurch eine Frequenz von 3600 MHz erhalten wird. Nachdem ich auch den Bus übertaktet hatte, erreichte ich 3800 MHz, also 600 MHz mehr als in der ersten Konfiguration. Der RAM arbeitet in diesem Fall mit einer Frequenz von 2252 MHz und Timings von 9:9:9:27

3. Die Konfiguration ist genau die gleiche wie die zweite, jedoch mit einer RAM-Frequenz von 1689 MHz bei den Timings 9:9:9:27

4. Konfiguration mit einem 2600k-Prozessor bei 3,80 GHz, HT deaktiviert und 2252 MHz RAM mit Timings 9:9:9:27.

Testkomponenten:
Intel Core i7 2600K
Intel Core i5 2400
Hauptplatine: ASUS P8Z77-V Deluxe
RAM: 16 GB DDR3 CRUCIAL Ballistix Elite
Grafikkarte: GTX 780 Ti 1279|7800 Treiber: 381,89
Stromversorgung: APS-850C 850W
Operationssystem: Windows 8.1 x64 sauber (35 Prozesse nach Systemstart)

i5 2400 3200 MHz DDR3 1333 MHz

i5 2400 3800 MHz DDR3 1689 MHz

i5 2400 3800 MHz DDR3 2252 MHz

i7 2600k 3800MHz 2252MHz

NVIDIA GTX 780 Ti 1279|7800

Testergebnisse:

3DMark 2013 CPU-Score




Der Gewinn durch Cache und RAM ist minimal.

_________________________________________________________________________________________________

Cinebench R15




Im Cinebench R15 sehen wir ein ähnliches Bild.

_________________________________________________________________________________________________

LinX 0.6.5 Aufgabenvolumen: 25000




Auch bei LinX bringt nur die Übertaktung des Prozessors eine Steigerung

_________________________________________________________________________________________________

x264 FHD-Benchmark




Und wieder liegt der Anstieg auf der Fehlerebene.

_________________________________________________________________________________________________

Winrar v4.20



Und schließlich erhalten wir eine Steigerung aus dem Cache von etwa 6 % und aus dem Speicher von etwa 15 %.

_________________________________________________________________________________________________

Battlefield 1 Einzelspieler


Erlaubnis: 1280x720
Auflösungsskala: 100%
Texturqualität: unten. / Durchschn. / hoch / Ultra
Texturfilterung: unten. / Durchschn. / hoch / Ultra
Lichtqualität: unten. / Durchschn. / hoch / Ultra
Effektqualität: unten. / Durchschn. / hoch / Ultra
Nachbearbeitungsqualität: unten. / Durchschn. / hoch / Ultra
Netzqualität: unten. / Durchschn. / hoch / Ultra
Landschaftsqualität: unten. / Durchschn. / hoch / Ultra
Grasqualität: unten. / Durchschn. / hoch / Ultra
Anti-Aliasing-Qualität: Nein/ FXAA (mittel) / FXAA (hoch) / TAA
Volumetrisches Licht: nein /SSAO/ HBAO


Beim L3-Cache gibt es einen leichten Anstieg.

_________________________________________________________________________________________________

Crysis 3 Willkommen im Dschungel


Erlaubnis: 1280x720
Glätten: aus
Texturauflösung: niedrig / Durchschnitt / hoch / Max.
Auswirkungen: niedrig / Durchschnitt / hoch / Max.
Ein Objekt: niedrig / Durchschnitt / hoch / Max.
Partikel: niedrig / Durchschnitt / hoch / Max.
Nachbearbeitung: niedrig / Durchschnitt / hoch / Max.
Schattierung: niedrig / Durchschnitt / hoch / Max.
Schatten: niedrig / Durchschnitt / hoch / Max.
Wasser: niedrig / Durchschnitt / hoch / Max.
Anisotroper Filter: 1x / 2x / 4x / 8x / 16x
Unschärfegrad: aus
Blendung: Ja/ Nein


Eine der CPU-intensivsten Szenen im Spiel. Der Anstieg hängt nur von der Prozessorfrequenz ab. Die 780Ti-Auslastung in dieser Szene überschritt selbst auf i7 nicht 50 %

_________________________________________________________________________________________________

Integrierter Grand Theft Auto V-Benchmark (Letzte Szene)


Erlaubnis: 1280x720
DirectX-Version: 11
FXAA-Anti-Aliasing: aus/ An
MSAA-Antialiasing: aus/ x2 / x4 / x8
Stadtbevölkerung: max
Bevölkerungstyp: max
Fokusskala: max
Texturqualität: Standard / hoch / sehr hoch
Shader-Qualität: Standard / hoch / sehr hoch
Schattenqualität: Standard / hoch / sehr hoch
Reflexionsqualität: Höchster Abschluss
MSAA für Reflexionen: aus/ x2 / x4 / x8
Wasserqualität: Standard / hoch / sehr hoch
Partikelqualität: Standard / hoch / sehr hoch
Grasqualität: Standard / hoch / sehr hoch / Höchster Abschluss
Weiche Schatten: scharf / weich / weicher / max. weich / AMD CHS / NVIDIA PCSS
Spezialeffekte einrichten: Standard / hoch / sehr hoch / Höchster Abschluss
Grad der Bewegungsunschärfe: Mindest
Tiefenschärfeeffekt: aus/ An
Anisotrope Filterung: x16
AO-Schattierung: aus / Standard / hoch
Tesselierung: Aus / Standard / Hoch / sehr hoch

Zusätzliche Einstellungen:
Lange Schatten: aus / An
Hochauflösende Schatten: aus / An
Detailliertere Texturen während des Fluges laden: aus / An
Vergrößerung des Ladeabstands für detailliertere Objekte: max
Schattenlänge: max


Dieses Spiel hat definitiv einen Schub sowohl vom Speicher als auch vom Cache. Eine sehr gute Steigerung des i5 2400 mit 3,80 GHz im Vergleich zu den serienmäßigen 3,20 GHz.

_________________________________________________________________________________________________

Mass Effect Andromeda


Erlaubnis: 1280x720
Glätten: aus
Getreide: aus / An
Chromatische Aberrationen: aus / An
Texturqualität: Ultra
Diffuse Beschattung: aus /SSAO/HBAO/ volles HBAO
Nachbearbeitungsqualität: Niedrig Mittel Hoch / Ultra
Texturqualität: Niedrig Mittel Hoch / Ultra
Lichtqualität: Niedrig Mittel Hoch / Ultra
Schattenqualität: Niedrig Mittel Hoch / Ultra
Effektqualität: Niedrig Mittel Hoch / Ultra
Modellqualität: Niedrig Mittel Hoch / Ultra
Shader-Qualität: niedrig/ hoch
Landschaftsqualität: Niedrig Mittel Hoch / Ultra
Pflanzenqualität: Niedrig Mittel Hoch / Ultra


In dieser Szene wurde der 780Ti nicht vollständig geöffnet.
_________________________________________________________________________________________________

Welt der Panzer 0.9.18
Karte: Pass

Glätten: offen/ An
Grafik: Standard / verbessert
Texturqualität: Niedrig Mittel Hoch / maximal
Lichtqualität: maximal
Schattenqualität: aus/mittel/hoch/ maximal
Gras im Scharfschützenmodus: aus / An
Zusätzliche Qualität Auswirkungen: aus / niedrig / mittel / hoch / maximal
Zusätzliche Effekte im Scharfschützenmodus: hoch
Vegetationsmenge: aus / niedrig / mittel / hoch / maximal
Nachbearbeitung: aus / niedrig / mittel / hoch / maximal
Effekte unter den Gleisen: aus / An
Landschaftsqualität: minimal / niedrig / mittel / hoch / maximal
Wasserqualität: Niedrig Mittel Hoch / maximal
Qualität der Aufkleber: aus / niedrig / mittel / hoch / maximal
Objektdetails: Niedrig Mittel Hoch / maximal
Baumdetails: Niedrig Mittel Hoch / maximal
Renderabstand: Niedrig Mittel Hoch / maximal
Qualität der Bewegungsunschärfe: aus / niedrig / mittel / hoch
D Dynamische Änderung der Effektqualität: aus / An
Spuren von Raupen: aus / An

Fazit: Einige Rezensenten von Youtube deaktivieren einfach HT und machen aus dem I7 einen „künstlichen“ i5, allerdings mit großem Cache ... und sie sagen, dass es keinen Unterschied gibt. Dennoch bringt der zusätzliche Cache in manchen Spielen eine Steigerung.

Und im Allgemeinen führt das Übertakten eines serienmäßigen i5 2400 zu einer sehr starken Steigerung, aber dann müssen Sie Geld für ein Motherboard ausgeben.

Cache - Zwischenpuffer mit Schneller Zugang, die Informationen enthält, die am wahrscheinlichsten angefordert werden. Der Zugriff auf Daten im Cache ist schneller als das Abrufen von Quelldaten aus dem Betriebsspeicher (RAM) und schneller als aus externem Speicher ( Festplatte oder Solid-State-Laufwerk) Speicher, wodurch die durchschnittliche Zugriffszeit verkürzt und die Gesamtleistung des Computersystems erhöht wird.

Eine Reihe von Zentraleinheitsmodellen (CPU) verfügen über einen eigenen Cache, um den Zugriff auf den Arbeitsspeicher (RAM) zu minimieren, der langsamer als Register ist. Der Cache-Speicher kann erhebliche Leistungsvorteile bieten, wenn die RAM-Taktfrequenz deutlich niedriger ist als die CPU-Taktfrequenz. Taktfrequenz Beim Cache-Speicher liegt sie normalerweise nicht viel unter der CPU-Frequenz.

Cache-Ebenen

Zwischenspeicher zentraler Prozessor in mehrere Ebenen unterteilt. In einem Allzweckprozessor kann die Anzahl der Ebenen heutzutage bis zu 3 betragen. Der Level-N+1-Cache ist typischerweise größer und in der Zugriffsgeschwindigkeit und Datenübertragung langsamer als der Level-N-Cache.

Am meisten schnelles Gedächtnis ist der Cache der ersten Ebene – L1-Cache. Tatsächlich ist es ein integraler Bestandteil des Prozessors, da es sich auf demselben Chip befindet und Teil der Funktionsblöcke ist. Bei modernen Prozessoren ist der L1-Cache üblicherweise in zwei Caches unterteilt, den Befehlscache und den Datencache (Harvard-Architektur). Die meisten Prozessoren ohne L1-Cache können nicht funktionieren. Der L1-Cache arbeitet mit der Prozessorfrequenz und kann im Allgemeinen bei jedem Taktzyklus abgerufen werden. Oft ist es möglich, mehrere Lese-/Schreibvorgänge gleichzeitig durchzuführen. Die Zugriffslatenz beträgt normalerweise 2–4 Kerntaktzyklen. Das Volumen ist normalerweise klein – nicht mehr als 384 KB.

Der zweitschnellste ist der L2-Cache – ein Cache der zweiten Ebene, der sich normalerweise wie L1 auf dem Chip befindet. Bei älteren Prozessoren ein Satz Chips auf der Hauptplatine. L2-Cache-Volumen von 128 KB auf 1–12 MB. Bei modernen Mehrkernprozessoren ist der Cache der zweiten Ebene, der sich auf demselben Chip befindet, ein separater Speicher – bei einer Gesamtcachegröße von nM MB verfügt jeder Kern über nM/nC MB, wobei nC die Anzahl der Prozessorkerne ist. Typischerweise beträgt die Latenz des L2-Cache auf dem Kernchip 8 bis 20 Kerntaktzyklen.

Der Cache der dritten Ebene ist am wenigsten schnell, kann aber eine sehr beeindruckende Größe haben – mehr als 24 MB. Der L3-Cache ist langsamer als frühere Caches, aber immer noch deutlich schneller als Rom. In Multiprozessorsystemen wird es häufig verwendet und dient der Synchronisierung von Daten aus verschiedenen L2s.

Manchmal gibt es auch einen Cache der 4. Ebene, normalerweise befindet er sich in einem separaten Chip. Der Einsatz von Level-4-Cache ist nur für Hochleistungsserver und Mainframes gerechtfertigt.

Das Problem der Synchronisation zwischen verschiedenen Caches (sowohl einem als auch mehreren Prozessoren) wird durch Cache-Kohärenz gelöst. Es gibt drei Möglichkeiten, Informationen zwischen Caches unterschiedlicher Ebene oder, wie man sagt, Cache-Architekturen auszutauschen: inklusiv, exklusiv und nicht exklusiv.

Einer der wichtigen Faktoren, die die Prozessorleistung steigern, ist das Vorhandensein von Cache-Speicher bzw. dessen Volumen, Zugriffsgeschwindigkeit und Verteilung auf die Ebenen.

Seit geraumer Zeit sind fast alle Prozessoren mit diesem Speichertyp ausgestattet, was einmal mehr die Nützlichkeit seines Vorhandenseins unter Beweis stellt. In diesem Artikel werden wir über die Struktur, die Ebenen und den praktischen Zweck des Cache-Speichers sprechen, was sehr wichtig ist. Prozessoreigenschaften.

Was ist Cache-Speicher und seine Struktur?

Cache-Speicher ist ein ultraschneller Speicher, der vom Prozessor zum vorübergehenden Speichern von Daten verwendet wird, auf die am häufigsten zugegriffen wird. So kann man es kurz beschreiben dieser Typ Erinnerung.

Der Cache-Speicher ist auf Flip-Flops aufgebaut, die wiederum aus Transistoren bestehen. Eine Gruppe von Transistoren nimmt viel mehr Platz ein als die gleichen Kondensatoren, aus denen sie besteht Rom. Dies bringt zahlreiche Produktionsschwierigkeiten sowie Mengenbeschränkungen mit sich. Aus diesem Grund ist Cache-Speicher ein sehr teurer Speicher, obwohl er über ein vernachlässigbares Volumen verfügt. Aber aus dieser Struktur ergibt sich der Hauptvorteil eines solchen Speichers – die Geschwindigkeit. Da Flip-Flops keine Regeneration benötigen und die Verzögerungszeit des Gates, auf dem sie montiert sind, gering ist, vergeht die Zeit zum Umschalten des Flip-Flops von einem Zustand in einen anderen sehr schnell. Dadurch kann der Cache-Speicher mit den gleichen Frequenzen wie moderne Prozessoren arbeiten.

Ein wichtiger Faktor ist auch die Platzierung des Cache-Speichers. Es befindet sich auf dem Prozessorchip selbst, was die Zugriffszeit erheblich verkürzt. Zuvor befand sich der Cache-Speicher einiger Ebenen außerhalb des Prozessorchips, auf einem speziellen SRAM-Chip irgendwo in der Weite Hauptplatine. Mittlerweile verfügen fast alle Prozessoren über einen Cache-Speicher auf dem Prozessorchip.


Wofür wird der Prozessor-Cache verwendet?

Wie oben erwähnt, besteht der Hauptzweck des Cache-Speichers darin, Daten zu speichern, die häufig vom Prozessor verwendet werden. Der Cache ist ein Puffer, in den Daten geladen werden, und trotz seiner geringen Größe (ca. 4-16 MB) moderne Prozessoren Es sorgt für eine deutliche Leistungssteigerung in jeder Anwendung.

Um den Bedarf an Cache-Speicher besser zu verstehen, stellen wir uns vor, den Speicher eines Computers wie ein Büro zu organisieren. Beim RAM handelt es sich um einen Schrank mit Ordnern, auf den der Buchhalter regelmäßig zugreift, um große Datenblöcke (also Ordner) abzurufen. Und die Tabelle wird ein Cache-Speicher sein.

Auf dem Schreibtisch des Buchhalters liegen Elemente, auf die er im Laufe einer Stunde mehrmals Bezug nimmt. Dies können beispielsweise Telefonnummern oder einige Beispiele für Dokumente sein. Diese Art von Informationen befinden sich direkt auf dem Tisch, was wiederum den Zugriff darauf beschleunigt.

Auf die gleiche Weise können Daten aus diesen großen Datenblöcken (Ordnern) zur schnellen Verwendung, beispielsweise einem Dokument, zur Tabelle hinzugefügt werden. Wenn dieses Dokument nicht mehr benötigt wird, wird es zurück in den Schrank (in den RAM) gelegt, wodurch die Tabelle (Cache-Speicher) geleert und diese Tabelle für neue Dokumente freigegeben wird, die in der nächsten Zeit verwendet werden.

Auch beim Cache-Speicher gilt: Wenn es Daten gibt, auf die am wahrscheinlichsten erneut zugegriffen wird, werden diese Daten aus dem RAM in den Cache-Speicher geladen. Sehr oft geschieht dies durch das Mitladen der Daten, die am wahrscheinlichsten nach den aktuellen Daten verwendet werden. Das heißt, es gibt Annahmen darüber, was „danach“ verwendet wird. Das sind die komplexen Funktionsprinzipien.

Prozessor-Cache-Level

Moderne Prozessoren sind mit einem Cache ausgestattet, der häufig aus 2 oder 3 Ebenen besteht. Natürlich gibt es Ausnahmen, aber das ist oft der Fall.

Im Allgemeinen kann es folgende Ebenen geben: L1 (erste Ebene), L2 (zweite Ebene), L3 (dritte Ebene). Nun ein wenig mehr Details zu jedem von ihnen:

Cache der ersten Ebene (L1)– die schnellste Cache-Speicherebene, die direkt mit dem Prozessorkern zusammenarbeitet. Dank dieser engen Interaktion hat diese Ebene die kürzeste Zugriffszeit und arbeitet mit Frequenzen nahe am Prozessor. Es handelt sich um einen Puffer zwischen dem Prozessor und dem Second-Level-Cache.

Wir werden Bände auf einem Hochleistungsprozessor Intel Core i7-3770K betrachten. Dieser Prozessor ist mit 4x32 KB L1-Cache ausgestattet, 4 x 32 KB = 128 KB. (32 KB pro Kern)

Cache der zweiten Ebene (L2)– Die zweite Ebene ist größer als die erste, weist jedoch dadurch geringere „Geschwindigkeitseigenschaften“ auf. Dementsprechend dient es als Puffer zwischen den Ebenen L1 und L3. Schauen wir uns noch einmal unseren Beispiel-Core i7-3770 K an, dann beträgt die L2-Cache-Speichergröße 4x256 KB = 1 MB.

Level-3-Cache (L3)– Die dritte Ebene ist wiederum langsamer als die beiden vorherigen. Aber es ist immer noch viel schneller als RAM. Die L3-Cache-Größe im i7-3770K beträgt 8 MB. Wenn die beiden vorherigen Ebenen von jedem Kern geteilt werden, gilt diese Ebene für den gesamten Prozessor. Der Indikator ist recht solide, aber nicht übertrieben. Denn beispielsweise bei Prozessoren der Extreme-Serie wie dem i7-3960X sind es 15 MB, bei einigen neuen Xeon-Prozessoren sogar mehr als 20.

gastroguru 2017