Development and integration of a comprehensive open-source ecosystem for the design of complex RISC-V System-on-Chip (SoC) architectures, featuring support for embedded FPGA technologies.
- Offene Umgebung für adaptive RISC-V + eFPGA Systeme (besonders robust durch Verwendung formaler Verifikationsverfahren und Post-Quantum)
- Mehrere externe Projekte, welche DI-OWAS Tools einsetzen FABulous wird bereits von Stanford University, Berkely, und New York University genutzt
- FABulous als Benchmark für die Entwicklung der OpenLane Tools
- Ausbildung von Experten (in Lehre, Summer-Schools und Tutorials)
- Weitere Förderung für langfristige Unterstützung & Startup
- Tapeouts im Rahmen von Summer-Schools
- Ein Open-everything Demonstrator (z.B. in Sky 130nm, GF 180nm, IHP 130nm BiCMOS)
- Ein adaptiver ASIC angepasst für sowohl einem KI Kamerasystem als auch für intelligente Sensorverarbeitung (z.B. in GF 22 nm FD-SOI)
- Hybride Werkzeugkette mit Open-Source- & Industrie-Werkzeugen (z.B. Cadence)
- Demonstrator Aufbau (mit Bilddaten- und Senesordatenverarbeitung)
- FABulous (eFPGA Framework)
- AIRISC (Lizenzfreier RISC-V core für FPGA und ASIC)
- hxtorch (BrainScaleS-2 via PyTorch)
- Yosys (Logiksynthese)
- ABC (Technology Mapping)
- nextpnr (generisches FPGA Place&Route Tool)
- OpenLane/OpenRoad (RTL nach GDS2 Flow)
- PyTorch/CUDA (ML Training)
- Ngspice (Schaltungssimulation von SPICE-Modellen)
- PDKs: Sky 130nm, GF 180nm, IHP 130nm BiCMOS
- RISC-V
- Spezial-FPGA-Blöcke für AI und Krypto (TRL 2 TRL 4) Bislang nur einfache Arithmetik-Blöcke in FABulous
- Anwender-definierte Fabrics (TRL 3 TRL 5) (Größe, Kacheln, I/O, Routing, ...) Bislang nur eingeschränkte Möglichkeit für I/O und das Routing
- Automatische FPGA Werkzeuggenerierung (TRL 3 TRL 5) (für die RTL-zu-Bitstream-Generierung) Bislang werden die Werkzeuge manuell an die Fabrics angepasst
- Integrierte Werkzeuge für Optimierung (TRL 2 TRL 4) und Entwurfsraumexploration Bislang bedarf die Optimierung viel Expertenwissen und Eingriffe
- Integrierte Werkzeuge für Verifikation (TRL 3 TRL 5) und Charakterisierung Bislang kann noch kein vollständiges Timing-Modell erzeugt werden
- System mit konfigurierbarer KI-gestützter (TRL 2 TRL 4)
- Sensor-Fusion Bislang gibt es nur einfache Erkennnung ohne die geplante Unterstützung für KI und Sensor-Fusion
- Projektlaufzeit: 01.05.2024 – 30.04.2027
- Fördersumme: 3.98M €
- Projektansprechpartner:
- UH1: Prof. Dirk Koch; Universität Heidelberg (Koordinator) (Im Neuenheimer Feld 386, 69120 Heidelberg)
- UH2: PD Dr. habil. Johannes Schemmel; Uni Heidelberg (Im Neuenheimer Feld 227, 69120 Heidelberg)
- IMS: Stephan Nolting; Fraunhofer IMS (Finkenstraße 61, 47057 Duisburg)
- RUB: Prof. Tim Güneysu; Ruhr-Universität Bochum (Universitätsstr. 150, 44801 Bochum)
- BH: Mohammad Kabany; B-Horizon GmbH (Bruckdorfer Str. 34, 93161 Sinzing)
- LU: Dr. Max Birtel ; LUBIS EDA GmbH (Trippstadter Straße 110, 67663 Kaiserslautern)
- DCV: Frederik Lange; DC Vision Systems GmbH (Rollnerstraße 59, 90408 Nürnberg)
- Kontakt: [email protected]