DeuAq.com >> Leben >  >> Elektronik

Facebook hat mit Intel an einem Deep-Learning-KI-Chip gearbeitet

Intel hat den sogenannten Nervana Neural Network Processor (NNP) vorgestellt; der erste kommerziell erhältliche Chip des Unternehmens, der von Grund auf für Deep-Learning-Anwendungen entwickelt wurde. Die Enthüllung war auch mit einer Überraschung verbunden:Intel hat mit Facebook zusammengearbeitet, um seine KI-spezifische Hardware zu entwickeln.

Facebook hat mit Intel an einem Deep-Learning-KI-Chip gearbeitet

Siehe verwandte KI versus maschinelles Lernen:Was ist der Unterschied?Aktzeichnen und maschinelles Lernen:Ein Interview mit der Künstlerin Anna RidlerDie Regierung ist nicht bereit für die Auswirkungen der künstlichen Intelligenz, behaupten Abgeordnete

Die Nervana NNP-Reihe, offiziell bekannt als „Lake Crest“, ist Intels Antwort auf den zunehmenden Einsatz von maschinellen Lerntechniken und eine Gegenargumentation gegen das wachsende Interesse an Nvidias Silizium für KI-Workloads (das die Einnahmen des Unternehmens in letzter Zeit in die Höhe getrieben hat). Jahr).

Mit einem Chipsatz für Deep Learning hofft Intel, dass es den Markt für KI-Rechenzentren erobern kann, ähnlich wie es die Stapel traditionellerer Rechenzentren erobert hat. Der Rand , weist beispielsweise darauf hin, dass Intel einen Marktanteil von 96 % bei Rechenzentren hat. Wenn maschinelles Lernen die Zukunft ist, möchte Intel ein Stück von diesem sich selbst entwickelnden Kuchen abhaben.

Sie sind sich nicht sicher, was der Unterschied zwischen maschinellem Lernen und KI ist? Wir haben hier eine praktische Einführung.

Betreten Sie das Nervana NNP, das die Übernahme des Deep-Learning-Unternehmens Nervana Systems im August 2016 nutzt. Letztes Jahr zahlte das Unternehmen mehr als 400 Millionen $ (303 Millionen £) für das Deep-Learning-Startup mit 48 Mitarbeitern, und es wurde allgemein vorhergesagt, dass Intel einen Vorstoß in Richtung Deep Learning für Rechenzentren unternehmen würde.

Überraschender war jedoch die Enthüllung, dass Facebook eine zentrale Rolle bei der Schaffung des Nevana NNP gespielt hat. „Wir sind begeistert, dass Facebook in enger Zusammenarbeit seine technischen Erkenntnisse teilt, während wir diese neue Generation von KI-Hardware auf den Markt bringen“, schrieb Brian Krzanich, CEO von Intel, in einem Blogbeitrag, der am Dienstag zusammen mit der Ankündigung veröffentlicht wurde.

Intel ist etwas vage darüber, was Facebook speziell an „technischen Einblicken“ angeboten hat, aber größere Deep-Learning-Möglichkeiten sprechen sicherlich für das soziale Netzwerk. Mehr Potenzial für maschinelles Lernen bedeutet, dass es mehr tun kann, um personalisierte, vorausschauende Seiten für Benutzer anzubieten. Das bedeutet mehr Silo-Targeting für Werbetreibende.

Intel ist auch vage bezüglich der genauen Geschwindigkeiten seiner Nervana NNP-Reihe. Das Unternehmen sagt bisher nur, dass es „eine bis zu 100-fache Reduzierung der Zeit zum Trainieren eines Deep-Learning-Modells in den nächsten drei Jahren im Vergleich zu GPU-Lösungen anstrebt“. Das Ziel für die 100-fache Geschwindigkeit im Training ist derzeit für 2020 festgelegt.