Die Gemini Associative Processing Unit (APU) von GSI Technology definiert die Hochleistungsinferenz (den Prozess, bei dem ein System neues Wissen aus vorhandenen Daten oder Regeln ableitet) neu, indem sie das serielle Verarbeitungs-Paradigma klassischer Architekturen überwindet. Basierend auf einem patentierten Compute-in-Memory-Ansatz (CIM) verlagert die Gemini APU die massive parallele Datenverarbeitung, Berechnung und Suche direkt in das Speicher-Array.
Durch dieses Assoziative Computing wird der kritische I/O-Engpass zwischen Prozessor (CPU/GPU) und externem Speicher (DRAM) vollständig eliminiert. Anstatt Daten kontinuierlich über den Bus zu verschieben, erfolgt der Zugriff und die Verarbeitung der Daten direkt am Ort der Speicherung – in-place – gesteuert durch den Inhalt der Daten selbst.
Das Ergebnis ist eine signifikante Verbesserung der Performance-over-Power-Ratio (Leistung pro Watt) im Vergleich zu konventionellen Methoden. Für Elektronik-Entwickler und Systemarchitekten ermöglicht die Gemini APU die Implementierung von hochkomplexen Algorithmen für latenzkritische Edge-Anwendungen, darunter Vector Search, Echtzeit-Bildverarbeitung für Synthetic Aperture Radar (SAR) und anspruchsvolle KI-Inferenz mit geringstem Energiebudget. Die Technologie bietet somit eine spezialisierte, hocheffiziente Lösung für Big-Data-Anwendungen, bei denen Geschwindigkeit und Energieeffizienz an vorderster Stelle stehen.
Interessiert? Lesen Sie hier weiter
