Ein Zitat von Jose Ferreira

Big Data wird von Menschen schon seit langem genutzt – nur in stationären Anwendungen. Versicherungen und standardisierte Tests sind Beispiele für Big Data aus der Zeit vor dem Internet.
Man denkt, dass „Big Data“ das Problem der Diskriminierung vermeidet, weil man es mit großen Datensätzen zu tun hat, aber in Wirklichkeit wird Big Data für immer präzisere Formen der Diskriminierung verwendet – eine Form des Data Redlining.
„The Human Face of Big Data“ enthält eine Reihe faszinierender Geschichten, die einige der innovativsten Datenanwendungen darstellen, die unsere Zukunft prägen.
Ich möchte sagen, dass ich mich schon so lange mit Big Data beschäftige, dass es sich früher um Small Data handelte, als ich anfing, damit zu arbeiten.
Anwendungen des maschinellen Lernens und der künstlichen Intelligenz erweisen sich als besonders nützlich im Ozean, wo es sowohl so viele Daten – große Oberflächen, große Tiefen – als auch nicht genügend Daten gibt, dass es zu teuer und nicht unbedingt sinnvoll ist, Proben jeglicher Art zu sammeln überall.
Ich werde etwas ziemlich Kontroverses sagen. Big Data, wie die Menschen es heute verstehen, ist nur eine größere Version von Small Data. Grundsätzlich hat sich nichts an der Art und Weise geändert, wie wir mit Daten umgehen; es gibt einfach mehr davon.
Daten!Daten!Daten!“, schrie er ungeduldig. „Ich kann keine Ziegel ohne Ton herstellen.“
Neue Anwendungen müssen mit Big Data umgehen. Wir müssen es im Handumdrehen analysieren, also brauchen wir ein System, das gleichzeitig transaktional und analytisch ist. Wir können kein mehrstufiges System haben. Für moderne Anwendungen ist das zu langsam.
Das Große, was passiert ist, ist, dass unsere medizinische Wissenschaft seit Inkrafttreten des Affordable Care Act Fortschritte gemacht hat. Wir haben jetzt Genomdaten. Wir verfügen über die Macht großer Datenmengen darüber, wie Ihre Lebensgewohnheiten aussehen und was in Ihrem Körper passiert. Sogar Ihr Smartphone kann Daten über Ihr Gehen, Ihren Puls oder andere Dinge sammeln, die äußerst aussagekräftig sein könnten, um vorherzusagen, ob bei Ihnen in Zukunft Krankheiten auftreten, und um diese Probleme zu vermeiden.
Big Data ist großartig, wenn Sie kleine Daten verifizieren und quantifizieren möchten – denn bei Big Data geht es um die Suche nach einer Korrelation, bei Small Data um die Suche nach der Ursache.
Schauen wir uns die Kreditvergabe an, wo Big Data für die Kreditwürdigkeit genutzt wird. Und es handelt sich übrigens nur um die Anreicherung von Kreditdaten, was wir auch tun. Es ist nichts Mystisches. Aber sie sind sehr gut darin, die Schmerzpunkte zu reduzieren. Sie können es schneller absichern, indem sie – ich nenne es einfach Big Data, weil es keinen besseren Begriff gibt: „Warum dauert es zwei Wochen? Warum schafft man es nicht in 15 Minuten?“
MapReduce ist zur Assemblersprache für die Big-Data-Verarbeitung geworden, und SnapReduce verwendet ausgefeilte Techniken, um SnapLogic-Datenintegrationspipelines in diese neue Big-Data-Zielsprache zu kompilieren. Unter Anwendung unseres gesamten Wissens über die beiden Welten der Integration und Hadoop haben wir unsere Technologie so entwickelt, dass sie direkt zu MapReduce passt und den Prozess der Konnektivität und Datenintegration im großen Maßstab nahtlos und einfach macht.
Die Fähigkeit, riesige Datenmengen in Echtzeit zu sammeln, zu analysieren, zu triangulieren und zu visualisieren, war etwas, was die Menschheit noch nie zuvor hatte. Diese neuen Tools, die oft mit dem hochtrabenden Begriff „Big Data“ bezeichnet werden, haben sich als neuer Ansatz zur Bewältigung einiger der größten Herausforderungen unseres Planeten herauskristallisiert.
Wir erhalten mehr Daten über Menschen als jedes andere Datenunternehmen über Menschen, über irgendetwas – und das ist nicht einmal annähernd der Fall. Wir schauen uns an, was Sie wissen, was Sie nicht wissen und wie Sie am besten lernen. Der große Unterschied zwischen uns und anderen Big-Data-Unternehmen besteht darin, dass wir Ihre Daten aus keinem Grund an Dritte vermarkten.
Eine [Big Data]-Herausforderung besteht darin, wie wir Big Data verstehen und nutzen können, wenn es in einem unstrukturierten Format vorliegt.
Watson erweitert die menschliche Entscheidungsfindung, weil sie nicht durch menschliche Grenzen bestimmt wird. Es fasst all diese Informationen zusammen, bildet Hypothesen, Millionen davon, und testet sie dann mit allen Daten, die es finden kann. Mit der Zeit lernt es, welche Daten zuverlässig sind, und das ist Teil seines Lernprozesses.
Vorurteile und blinde Flecken gibt es bei Big Data ebenso wie bei individuellen Wahrnehmungen und Erfahrungen. Dennoch besteht die problematische Überzeugung, dass größere Daten immer bessere Daten sind und dass Korrelation genauso gut ist wie Kausalität.
Diese Website verwendet Cookies, um Ihnen das bestmögliche Erlebnis zu bieten. Mehr Info...
Habe es!