Ein Zitat von Martin Lindstrom

Während es bei Big Data vor allem um die Suche nach Korrelationen geht – und damit um die Durchführung schrittweiser Änderungen – geht es bei Small Data um Kausalitäten – darum, die Gründe dafür zu verstehen. — © Martin Lindstrom
Während es bei Big Data vor allem um die Suche nach Zusammenhängen – und damit um die Durchführung schrittweiser Änderungen – geht, geht es bei Small Data vor allem um Kausalitäten – darum, die Gründe dafür zu verstehen.
Big Data ist großartig, wenn Sie kleine Daten verifizieren und quantifizieren möchten – denn bei Big Data geht es um die Suche nach einer Korrelation, bei Small Data um die Suche nach der Ursache.
Mit zu wenigen Daten können Sie keine vertrauenswürdigen Schlussfolgerungen ziehen. Bei einer Menge Daten werden Sie auf Beziehungen stoßen, die nicht real sind ... Bei Big Data geht es nicht um Bits, sondern um Talent.
Ich werde etwas ziemlich Kontroverses sagen. Big Data, wie die Menschen es heute verstehen, ist nur eine größere Version von Small Data. Grundsätzlich hat sich nichts an der Art und Weise geändert, wie wir mit Daten umgehen; es gibt einfach mehr davon.
Wir erhalten mehr Daten über Menschen als jedes andere Datenunternehmen über Menschen, über irgendetwas – und das ist nicht einmal annähernd der Fall. Wir schauen uns an, was Sie wissen, was Sie nicht wissen und wie Sie am besten lernen. Der große Unterschied zwischen uns und anderen Big-Data-Unternehmen besteht darin, dass wir Ihre Daten aus keinem Grund an Dritte vermarkten.
Man denkt, dass „Big Data“ das Problem der Diskriminierung vermeidet, weil man es mit großen Datensätzen zu tun hat, aber in Wirklichkeit wird Big Data für immer präzisere Formen der Diskriminierung verwendet – eine Form des Data Redlining.
MapReduce ist zur Assemblersprache für die Big-Data-Verarbeitung geworden, und SnapReduce verwendet ausgefeilte Techniken, um SnapLogic-Datenintegrationspipelines in diese neue Big-Data-Zielsprache zu kompilieren. Unter Anwendung unseres gesamten Wissens über die beiden Welten der Integration und Hadoop haben wir unsere Technologie so entwickelt, dass sie direkt zu MapReduce passt und den Prozess der Konnektivität und Datenintegration im großen Maßstab nahtlos und einfach macht.
Daten sind keine Informationen. ... Informationen sind im Gegensatz zu Daten nützlich. Während zwischen Daten und Informationen eine Kluft besteht, klafft zwischen Information und Wissen ein weiter Ozean. Es sind nicht Informationen, die das Getriebe in unserem Gehirn drehen, sondern Ideen, Erfindungen und Inspiration. Wissen – nicht Information – setzt Verständnis voraus. Und jenseits des Wissens liegt das, was wir suchen sollten: Weisheit.
Das Problem mit Daten ist, dass sie viel, aber auch nichts aussagen. „Big Data“ ist großartig, aber normalerweise dünn. Um zu verstehen, warum etwas passiert, müssen wir uns sowohl mit forensischen Untersuchungen als auch mit Vermutungen befassen.
Bei Big Data geht es hauptsächlich darum, Zahlen zu erfassen und diese Zahlen zu nutzen, um Vorhersagen über die Zukunft zu treffen. Je größer der Datensatz, den Sie haben, desto genauer sind die Vorhersagen über die Zukunft.
Schauen wir uns die Kreditvergabe an, wo Big Data für die Kreditwürdigkeit genutzt wird. Und es handelt sich übrigens nur um die Anreicherung von Kreditdaten, was wir auch tun. Es ist nichts Mystisches. Aber sie sind sehr gut darin, die Schmerzpunkte zu reduzieren. Sie können es schneller absichern, indem sie – ich nenne es einfach Big Data, weil es keinen besseren Begriff gibt: „Warum dauert es zwei Wochen? Warum schafft man es nicht in 15 Minuten?“
Eine [Big Data]-Herausforderung besteht darin, wie wir Big Data verstehen und nutzen können, wenn es in einem unstrukturierten Format vorliegt.
Der größte Fehler ist die übermäßige Abhängigkeit von Daten. Manager werden sagen, wenn keine Daten vorliegen, können sie keine Maßnahmen ergreifen. Es liegen jedoch nur Daten über die Vergangenheit vor. Wenn die Daten schlüssig sind, ist es zu spät, auf der Grundlage dieser Schlussfolgerungen Maßnahmen zu ergreifen.
Hier geht die Welt hin: Direkter Zugriff von überall auf jede Art von Daten, egal ob es sich um ein kleines Datenstück oder eine kleine Antwort, aber einen langen Algorithmus zum Erstellen dieser Antwort handelt. Dem Benutzer ist das egal.
Einer der Mythen über das Internet der Dinge besagt, dass Unternehmen über alle Daten verfügen, die sie benötigen, ihre eigentliche Herausforderung jedoch darin besteht, sie zu verstehen. Tatsächlich sind die Kosten für die Erhebung einiger Datenarten nach wie vor zu hoch, die Qualität der Daten ist nicht immer gut genug und es bleibt schwierig, mehrere Datenquellen zu integrieren.
Bei der ersten Welle des Internets ging es eigentlich um den Datentransport. Und wir haben uns keine großen Gedanken darüber gemacht, wie viel Strom wir verbrauchen, wie viel Kühlbedarf in den Rechenzentren besteht und wie groß die Fläche des Rechenzentrums ist. Das waren fast nachträgliche Gedanken.
Wir nutzen fast 5.000 verschiedene Datenpunkte über Sie, um eine Botschaft zu verfassen und gezielt anzusprechen. Die Datenpunkte sind nicht nur ein repräsentatives Modell von Ihnen. Bei den Datenpunkten geht es konkret um Sie.
Diese Website verwendet Cookies, um Ihnen das bestmögliche Erlebnis zu bieten. Mehr Info...
Habe es!