Bing neemt het op tegen Google en geeft zoekresultaten 10x sneller weer

Inhoudsopgave:

Video: Groen in de Grote Stad | Wakker Worden! | Disney Channel BE 2024

Video: Groen in de Grote Stad | Wakker Worden! | Disney Channel BE 2024
Anonim

De gespecialiseerde hardware van Microsoft voor AI-berekening wordt Brainwave genoemd en is zo gemaakt dat een neuraal netwerk zo snel mogelijk met minimale latentie kan worden uitgevoerd.

Het bedrijf kondigde aan dat het, sinds het gebruik van Brainwave, erin slaagde tien keer snellere prestaties te krijgen van de AI van Bing. Het machine learning-model zorgt in feite voor de functionaliteit van de zoekmachine.

Het doel van Microsoft dat moet worden bereikt via Brainwave is om realtime AI-voorspellingen te doen voor apps zoals de nieuwste Bing-functies.

Bing ontvangt nieuwe functies

Microsoft biedt Bing ook een paar nieuwe functies zoals en de belangrijkste die het vermelden waard zijn, bieden meer antwoorden op praktische vragen en ondersteuning voor het definiëren van woorden die niet zo vaak worden gebruikt wanneer gebruikers de muisaanwijzer eroverheen bewegen. Deze functies worden gevoed door Brainwave.

Microsoft gebruikt de FPGA's van Intel om AI-berekening mogelijk te maken

FPGA's zijn een soort lege doeken die ontwikkelaars kunnen gebruiken wanneer ze verschillende circuits willen inzetten door nieuwe software te verzenden. Dit omvat een krachtige mix van prestaties en programmeerbaarheid.

Nu kan Microsoft meer doen dan snellere modellen maken met de hardware; het bedrijf kan ook meer geavanceerde AI-systemen bouwen. Het Turing Prototype 1 van Bing is nu bijvoorbeeld tien keer complexer en sneller dankzij de rekencapaciteit die is toegevoegd via Brainwave.

De FGA's van Microsoft worden geleverd met speciale digitale signaalprocessors aan boord, verbeterd voor complexe AI-wiskunde.

Het belangrijkste voordeel van FPGA's

Het belangrijkste voordeel van FPGA's ten opzichte van de GPU's (die de voorkeurskeuze werd voor AI-berekening) is dat ze geen uitgebreid gebruik van batchberekeningen vereisen.

Een belangrijke innovatie waarmee Microsoft zulke succesvolle resultaten via FPGA's kan behalen, is het gebruik van 8 en 9-bit drijvende komma datatypes die de prestaties radicaal verbeteren.

Dankzij de FPGA-chips van Intel kan Bing snel miljarden documenten op internet lezen en analyseren en het beste antwoord op uw vraag geven in minder dan een fractie van een seconde.

In feite hebben Intel's FPGA's ons in staat gesteld om de latentie van onze modellen met meer dan 10x te verminderen en tegelijkertijd onze modelgrootte met 10x te vergroten.

Het gebruik van FPGA's om AI-berekening te versnellen dateert al in 2012

Microsoft begon FPGA's te gebruiken om de snelheid van AI-berekening meer dan zes jaar geleden te verbeteren toen het Bing-team de chips begon te gebruiken. Dit is ook geweldig nieuws voor Intel. Het bedrijf kocht Altera, een FPGA-maker in 2015, en de deal van $ 16, 7 miljard bood Intel de nodige kracht om de behoeften van Microsoft tot op heden te voeden.

We kijken uit naar Brainwave beschikbaar via Microsoft Azure om klanten de kans te bieden hun modellen te implementeren.

Bing neemt het op tegen Google en geeft zoekresultaten 10x sneller weer