Ein Zitat von Andrew Ng

Ich denke, die erste Welle des Deep-Learning-Fortschritts waren hauptsächlich große Unternehmen mit einer Menge Daten, die sehr große neuronale Netze trainierten, oder? Wenn Sie also ein Spracherkennungssystem aufbauen möchten, trainieren Sie es anhand von 100.000 Stunden Daten.
Wenn Sie über große Datenmengen verfügen, die so gekennzeichnet sind, dass ein Computer weiß, was sie bedeuten, Sie über eine große Rechenleistung verfügen und versuchen, Muster in diesen Daten zu finden, haben wir festgestellt, dass Deep Learning unschlagbar ist .
Alles, was Sie brauchen, sind viele, viele Daten und viele Informationen darüber, was die richtige Antwort ist, und Sie können ein großes neuronales Netz trainieren, um das zu tun, was Sie wollen.
Man denkt, dass „Big Data“ das Problem der Diskriminierung vermeidet, weil man es mit großen Datensätzen zu tun hat, aber in Wirklichkeit wird Big Data für immer präzisere Formen der Diskriminierung verwendet – eine Form des Data Redlining.
Möchten Sie ein maschinelles Übersetzungssystem trainieren? Trainieren Sie es anhand einer Unmenge von Satzpaaren paralleler Korpora, und das führt zu vielen bahnbrechenden Ergebnissen. Ich sehe zunehmend Ergebnisse bei kleinen Datenmengen, bei denen man versuchen möchte, Ergebnisse zu erzielen, selbst wenn man 1.000 Bilder hat.
MapReduce ist zur Assemblersprache für die Big-Data-Verarbeitung geworden, und SnapReduce verwendet ausgefeilte Techniken, um SnapLogic-Datenintegrationspipelines in diese neue Big-Data-Zielsprache zu kompilieren. Unter Anwendung unseres gesamten Wissens über die beiden Welten der Integration und Hadoop haben wir unsere Technologie so entwickelt, dass sie direkt zu MapReduce passt und den Prozess der Konnektivität und Datenintegration im großen Maßstab nahtlos und einfach macht.
Wir erhalten mehr Daten über Menschen als jedes andere Datenunternehmen über Menschen, über irgendetwas – und das ist nicht einmal annähernd der Fall. Wir schauen uns an, was Sie wissen, was Sie nicht wissen und wie Sie am besten lernen. Der große Unterschied zwischen uns und anderen Big-Data-Unternehmen besteht darin, dass wir Ihre Daten aus keinem Grund an Dritte vermarkten.
Anwendungen des maschinellen Lernens und der künstlichen Intelligenz erweisen sich als besonders nützlich im Ozean, wo es sowohl so viele Daten – große Oberflächen, große Tiefen – als auch nicht genügend Daten gibt, dass es zu teuer und nicht unbedingt sinnvoll ist, Proben jeglicher Art zu sammeln überall.
Es gibt private Ermittler in Unternehmen, die sehr forensische Hintergrundüberprüfungen von Personen durchführen. Sie kaufen Daten, sie bekommen ihre eigenen Daten ... Sie wollen nicht, dass ihre Branche bekannt gemacht wird.
Bei der ersten Welle des Internets ging es eigentlich um den Datentransport. Und wir haben uns keine großen Gedanken darüber gemacht, wie viel Strom wir verbrauchen, wie viel Kühlbedarf in den Rechenzentren besteht und wie groß die Fläche des Rechenzentrums ist. Das waren fast nachträgliche Gedanken.
Gesundheitswesen – die Fähigkeit neuronaler Netze, viele Daten aufzunehmen und Vorhersagen zu treffen, eignet sich sehr gut für diesen Bereich und wird möglicherweise enorme gesellschaftliche Auswirkungen haben.
Wir sollten immer misstrauisch sein, wenn maschinelle Lernsysteme als frei von Voreingenommenheit beschrieben werden, wenn sie auf von Menschen generierten Daten trainiert wurden. Unsere Vorurteile sind in diese Trainingsdaten integriert.
Gehen Sie raus und sammeln Sie Daten, und anstatt die Antwort zu wissen, schauen Sie sich einfach die Daten an und prüfen Sie, ob die Daten Ihnen etwas sagen. Wenn wir das mit Unternehmen machen dürfen, ist das fast magisch.
Big Data ist großartig, wenn Sie kleine Daten verifizieren und quantifizieren möchten – denn bei Big Data geht es um die Suche nach einer Korrelation, bei Small Data um die Suche nach der Ursache.
Einer der Mythen über das Internet der Dinge besagt, dass Unternehmen über alle Daten verfügen, die sie benötigen, ihre eigentliche Herausforderung jedoch darin besteht, sie zu verstehen. Tatsächlich sind die Kosten für die Erhebung einiger Datenarten nach wie vor zu hoch, die Qualität der Daten ist nicht immer gut genug und es bleibt schwierig, mehrere Datenquellen zu integrieren.
Werbetreibende wollen nicht ignoriert werden und sind betrunken von unseren Daten, die Google und andere große Netzwerke in Wirklichkeit verkaufen. Die Anzeigen sind fast ein Nebenprodukt; Was Unternehmen wirklich wissen wollen, ist, welches Antitranspirant eine Frau zwischen 25 und 34 Jahren am ehesten kaufen wird, nachdem sie „House of Cards“ gesehen hat.
Wenn Wissenschaftler anderer Meinung sind, liegt das daran, dass wir nicht über ausreichende Daten verfügen. Dann können wir uns darauf einigen, welche Art von Daten wir erhalten; wir bekommen die Daten; und die Daten lösen das Problem. Entweder habe ich recht, oder du hast recht, oder wir liegen beide falsch. Und wir machen weiter. Eine solche Konfliktlösung gibt es weder in der Politik noch in der Religion.
Diese Website verwendet Cookies, um Ihnen das bestmögliche Erlebnis zu bieten. Mehr Info...
Habe es!