Neuromorphic Computing braucht Partner, um in das Rechenzentrum einzudringen


Das aufstrebende Gebiet der neuromorphen Verarbeitung ist nicht einfach zu navigieren. Es gibt große Akteure auf diesem Gebiet, die ihre Größe und ihre reichlichen Ressourcen nutzen – der bekannteste ist Intel mit seinen Loihi-Prozessoren und TrueNorth-Initiative von IBM – und eine wachsende Liste von Startups, darunter SynSense, Innatera Nanosystems und GrAI Matter Labs.

Zu dieser letzteren Liste gehört BrainChip, ein Unternehmen, das seinen Akida-Chip – Akida ist griechisch für „Spitze“ – entwickelt und seit mehr als einem Jahrzehnt geistiges Eigentum begleitet. Wir haben BrainChip in den letzten Jahren verfolgt und 2018 mit ihnen gesprochen und dann wieder zwei Jahre später, und das Unternehmen hat sich in einem sich schnell entwickelnden Umfeld als anpassungsfähig erwiesen. Der ursprüngliche Plan war, das kommerzielle SoC bis 2019 auf den Markt zu bringen, aber BrainChip verlängerte die Frist, um die Fähigkeit hinzuzufügen, Convolutional Neural Networks (CNNs) zusammen mit Spiking Neural Networks (SNNs) auszuführen.

Im Januar kündigte das Unternehmen die vollständige Kommerzialisierung seiner AKD1000-Plattform an, die sein Mini-PCIe-Board umfasst, das den neuralen Netzwerkprozessor von Akida nutzt. Es ist ein wichtiger Teil der Strategie von BrainChip, die Technologie als Referenzmodelle zu verwenden, da es Partnerschaften mit Hardware- und Chipanbietern anstrebt, die es in ihre eigenen Designs integrieren werden.

„Wenn wir unser grundlegendes Geschäftsmodell betrachten, ist es ein Chip oder IP oder beides?“ Jerome Nadel, Chief Marketing Officer von BrainChip, erzählt Die nächste Plattform. „Es ist ein IP-Lizenzmodell. Wir haben Referenzchips, aber unser Go-to-Market ist definitiv die Zusammenarbeit mit Ökosystempartnern, insbesondere solchen, die eine Lizenz erwerben würden, wie ein Chipanbieter oder ein ASIC-Designer und Tier-One-OEMs. … Wenn wir mit einem Referenzdesign für Sensoren für verschiedene Sensormodalitäten oder mit einer Anwendungssoftwareentwicklung verbunden sind, wenn jemand KI-Aktivierung zusammenstellt, möchte er es auf unserer Hardware ausführen, und es besteht bereits Interoperabilität. Sie werden viele dieser Bausteine ​​sehen, wenn wir versuchen, in das Ökosystem einzudringen, denn wenn Sie sich das kategorische Wachstum der Edge-KI ansehen, wird es letztendlich wirklich von einfachen Geräten kommen, die intelligente Sensoren nutzen.“

BrainChip ist seine Technologie auf den Rand ausrichten, wo in den kommenden Jahren weitere Daten generiert werden sollen. Unter Hinweis auf die Forschung von IDC und McKinsey erwartet BrainChip, dass der Markt für Edge-basierte Geräte, die KI benötigen, von 44 Milliarden US-Dollar in diesem Jahr auf 70 Milliarden US-Dollar bis 2025 wachsen wird. Darüber hinaus in der letzten Woche Dell Technologies World-Veranstaltung, bekräftigte CEO Michael Dell seine Überzeugung, dass sich bis 2025 auf 75 Prozent verlagern wird, während derzeit 10 Prozent der Daten am Edge generiert werden. Dort, wo Daten erstellt werden, wird KI folgen. BrainChip hat Akida für Umgebungen mit hoher Verarbeitung und geringem Stromverbrauch entwickelt, um KI-Analyse-Workloads – insbesondere Inferenz – auf dem Chip ausführen zu können, um den Datenfluss in die und aus der Cloud zu verringern und so die Latenz bei der Generierung von Ergebnissen zu reduzieren.

Neuromorphe Chips werden entwickelt das Gehirn durch die Verwendung von SNNs nachzuahmen. BrainChip erweitert die Workloads, die Akida ausführen könnte, indem es in der Lage ist, auch CNNs auszuführen, die in Edge-Umgebungen für Aufgaben wie Embedded Vision, Embedded Audio, automatisiertes Fahren für LiDAR- und RADAR-Fernerkundungsgeräte und industrielles IoT nützlich sind. Als Wachstumsfelder sieht das Unternehmen Branchen wie autonomes Fahren, Smart Health und Smart Cities.

BrainChip sieht bereits einige Erfolge. Seine Akida 1000-Plattform wird im Konzeptfahrzeug Vision EQXX von Mercedes-Benz für KI in der Kabine verwendet, einschließlich Fahrer- und Sprachauthentifizierung, Schlüsselworterkennung und Kontextverständnis.

Der Anbieter sieht Partnerschaften als Möglichkeit, seine Präsenz im Bereich der neuromorphen Chips zu erhöhen.

„Wenn wir uns einen strategischen Fünfjahresplan ansehen, sehen unsere äußeren drei Jahre wahrscheinlich anders aus als unsere inneren zwei“, sagt Nadel. „In den inneren beiden werden wir uns weiterhin auf Chipanbieter und -designer sowie Tier-One-OEMs konzentrieren. Aber die äußeren drei, wenn Sie sich die Kategorien ansehen, werden wirklich von grundlegenden Geräten stammen, sei es im Auto oder in der Kabine. seien sie in der Unterhaltungselektronik, die nach dieser KI-Befähigung suchen. Wir müssen im Ökosystem sein. Unsere IP ist de facto und das Geschäftsmodell wickelt sich darum.“

Das Unternehmen hat eine Reihe von Partnerschaften angekündigt, darunter mit nViso, einem Unternehmen für KI-Analysen. Die Zusammenarbeit zielt auf batteriebetriebene Anwendungen in der Robotik und im Automobilsektor ab, bei denen Akida-Chips für die KI-Technologie von nViso für soziale Roboter und Überwachungssysteme in der Kabine verwendet werden. BrainChip arbeitet auch mit SiFive zusammen, um die Akida-Technologie in die von SiFive zu integrieren RISC-V-Prozessoren für Edge-KI-Computing-Workloads und MosChip, das seine Akida-IP mit der ASIC-Plattform des Anbieters für Smart-Edge-Geräte betreibt. BrainChip arbeitet auch mit Arm zusammen.

Um die Strategie zu beschleunigen, führte das Unternehmen diese Woche sein KI-Aktivierungsprogramm ein, um Anbietern funktionierende Prototypen von BrainChip IP auf Akida-Hardware anzubieten, um die Fähigkeiten der Plattform zum Ausführen von KI-Inferenz und Lernen auf dem Chip und in einem Gerät zu demonstrieren. Der Anbieter bietet auch Unterstützung bei der Identifizierung von Anwendungsfällen für die Sensor- und Modellintegration.

Das Programm umfasst drei Ebenen – die grundlegenden und fortgeschrittenen Prototypen bis hin zur funktionierenden Lösung – mit einer Skalierung der Anzahl der AKD1000-Chips auf 100, kundenspezifische Modelle für einige Benutzer, 40 bis 160 Stunden mit Experten für maschinelles Lernen und zwei bis zehn Entwicklungssysteme. Die Prototypen werden es BrianChip ermöglichen, seine kommerziellen Produkte zu einem Zeitpunkt an die Benutzer zu bringen, zu dem andere Wettbewerber noch ihre eigenen Technologien auf dem relativ jungen Markt entwickeln.

„Es gibt einen Schritt, um sich über die Anwendungsfälle im Klaren zu sein, und vielleicht eine Roadmap für mehr sensorische Integration und Sensorfusion“, sagt Nadel. „So leben wir als Geschäftsmodell nicht. Die Absicht ist es, reale, greifbare Arbeitssysteme aus unserer Technologie zu demonstrieren. Der Gedanke war, wir könnten diese in die Hände der Leute bringen und sie könnten sehen, was wir tun.“

BrainChips Akida IP unterstützt bis zu 1.024 Knoten, die in zwei bis 256 Knoten konfiguriert werden können, die über ein Mesh-Netzwerk verbunden sind, wobei jeder Knoten vier neuronale Verarbeitungseinheiten umfasst. Jede der NPUs enthält konfigurierbaren SRAM, und jede NPU kann bei Bedarf für CNNs konfiguriert werden, und jede basiert auf Ereignissen oder Spitzen, wobei Datenspärlichkeit, Aktivierungen und Gewichtungen verwendet werden, um die Anzahl der Operationen um mindestens das Zweifache zu reduzieren. Das Akida Neural SoC kann für eine Reihe von Anwendungsfällen eigenständig oder als Co-Prozessor integriert verwendet werden und bietet 1,2 Millionen Neuronen und 10 Milliarden Synapsen.

Das Angebot umfasst auch das MetaTF-Framework für maschinelles Lernen zur Entwicklung neuronaler Netze für Edge-Anwendungen und drei Referenzentwicklungssysteme für PCI-, PC-Shuttle- und Raspberry-Pi-Systeme.

Die Plattform kann für One-Shot-On-Chip-Lernen verwendet werden, indem das trainierte Modell verwendet wird, um Merkmale zu extrahieren und neue Klassen hinzuzufügen, oder in Multi-Pass-Verarbeitung, die die parallele Verarbeitung nutzt, um die Anzahl der benötigten NPUs zu reduzieren.

Hier ist der One-Shot:

Und da ist der Multipass:

„Die Idee, dass unser Beschleuniger in der Nähe des Sensors ist, bedeutet, dass Sie keine Sensordaten senden, sondern Inferenzdaten“, sagte Nadel. „Es ist wirklich ein Spiel der Systemarchitektur, dass wir uns vorstellen, dass unsere Mikrohardware mit Sensoren ausgestattet ist. Der Sensor erfasst Daten, sie werden vorverarbeitet. Wir machen die Schlussfolgerung daraus und das Lernen im Zentrum, aber vor allem die Schlussfolgerung. Wie bei einem fortschrittlichen Fahrerassistenzsystem im Auto beauftragen Sie nicht die mit GPUs geladene Serverbox mit der gesamten Datenberechnung und Inferenz. Sie erhalten die Inferenzdaten, die Metadaten und Ihre Last wird geringer sein.“

Die On-Chip-Datenverarbeitung ist Teil der Überzeugung von BrainChip, dass die Zukunft für einen Großteil der Edge-KI keine Clouds mehr benötigt. Anstatt alle Daten in die Cloud zu senden – was höhere Latenzen und Kosten mit sich bringt – erledigt der Schlüssel alles auf dem Chip selbst. Nadel sagt, es sei „eine kleine Provokation für die Halbleiterindustrie, wenn sie über Cloud-Unabhängigkeit spricht. Es ist kein Anti-Cloud-Ansatz, aber die Idee ist, dass Hyperscale bis zum Rand wahrscheinlich der falsche Ansatz ist. Du musst den Sensor hochfahren.“

Die Rückkehr in die Cloud bedeutet auch, dass das Modell neu trainiert werden muss, wenn sich die Objektklassifizierung ändert, erklärt Anil Mankar, Mitbegründer und Chief Development Officer Die nächste Plattform. Das Hinzufügen weiterer Klassen bedeutet, dass die Gewichtungen in der Klassifizierung geändert werden.

„On-Chip-Lernen“, sagt Mankar. „Es heißt inkrementelles Lernen oder kontinuierliches Lernen, und das ist nur möglich, weil … wir mit Spitzen arbeiten und tatsächlich ähnlich kopieren, wie unser Gehirn Gesichter und Objekte und solche Dinge lernt. Die Leute wollen kein Transfer-Lernen machen – gehen Sie zurück in die Cloud, holen Sie sich neue Gewichte. Jetzt können Sie weitere Objekte klassifizieren. Sobald Sie eine Aktivität auf dem Gerät haben, brauchen Sie keine Cloud, Sie müssen nicht rückwärts gehen. Was du lernst, lernst du“ und das ändert sich nicht, wenn etwas Neues hinzukommt.

Leave a Comment

Your email address will not be published.