ML-Compiler-Rahmenwerk: Apache fördert TVM zum Top-Level-Projekt..

0

Bereit für den produktiven Einsatz
Vom ML-Framework zur Zielplattform
Online-Konferenz über TVM

Die Apache Software Foundation (ASF) hat angekündigt, dass Apache TVM jetzt ein Projekt auf höchster Ebene ist.

Das Open-Source-Framework soll Entwicklern von maschinellen Lernanwendungen die Voraussetzungen bieten, ihre Modelle auf jeder beliebigen Hardware (CPUs, GPUs usw.) laufen zu lassen.

) und spezialisierte Beschleuniger so effizient wie möglich einzusetzen.

TVM ist das erste ASF-Projekt, das Software- und Hardware-Optimierung in einem kompletten Stack kombiniert.

Das Open-Source-Framework optimiert maschinelle Lernmodelle für den Einsatz auf verschiedenen Hardware- und Beschleunigerplattformen.

Apache TVM wird von zahlreichen Hardware- und Softwarefirmen eingesetzt, die auch zur Weiterentwicklung des Frameworks beitragen – darunter Alibaba Cloud, AMD, ARM, AWS, Facebook, Huawei, Intel, Microsoft, Nvidia, OctoML und Qualcomm sowie eine Reihe von Universitäten.

ML-Modelle können mit TVM für spezialisierte Hardware kompiliert und in sehr kompakten Laufzeiten verpackt werden, die u.a. für mobile Plattformen, Wearables oder eingebettete Geräte geeignet sind.

TVM generiert und optimiert außerdem automatisch Tensoroperatoren auf Backends, CPUs, GPUs, Browsern, Mikrocontrollern, FPGAs und ASICs.

TVM geht auf ein Forschungsprojekt zurück, das 2017 von der University of Washington begonnen wurde und das die ASF im März letzten Jahres in ihren Inkubator aufgenommen hat.

Mit der Beförderung zu einem Spitzenprojekt betont die ASF die Reife von TVM als Brücke zwischen der ML-Entwicklung und der effizienten Nutzung der Modelle auf verschiedenen Hardware-Plattformen.

Luis Ceze, CEO von OctoML und Professor an der University of Washington, sieht TVM angesichts der wachsenden Akzeptanz und Nutzerzahlen sogar auf dem Weg zu einem De-facto-Standard.

Weitere Informationen über Apache TVM finden Sie in der Ankündigung der Organisation und auf der Homepage des Projekts.

Für die Erstellung von Tiefenlernmodellen unterstützt TVM die Frameworks Keras, Apache MXNet (inkubierend), PyTorch, TensorFlow, CoreML sowie DarkNet und andere Bibliotheken.

Das Framework kann für Python-Prototyping verwendet werden, ist mit MISRA-C kompatibel und bietet ML-Entwicklern Funktionen wie Blocksparsamkeit, Quantisierung, Random Forests und Speicherplanung.

Produktionsfertige TVM-Stacks können in C++, Java, Rust oder Python erstellt werden, um die tief lernenden Anwendungen auf der gewünschten Zielplattform bereitzustellen.

Von 2.

bis 4.

Dezember 2020 findet die dritte Apache TVM and Deep Learning Compilation Conference statt.

Auf der Konferenz, die kostenlos zugänglich ist, erfahren Interessierte alles Wichtige über Trends und den aktuellen Stand der Kompilierungsoptimierung für Deep Learning.

..

Share.

Leave A Reply