Top 43 Zitate und Sprüche von Cathy O'Neil

Entdecken Sie beliebte Zitate und Sprüche von Cathy O'Neil.
Zuletzt aktualisiert am 22. November 2024.
Cathy O'Neil

Catherine („ Cathy “) Helen O’Neil ist eine amerikanische Mathematikerin, Datenwissenschaftlerin und Autorin. Sie ist die Gründerin des Blogs mathbabe.org und hat Bücher über Datenwissenschaft geschrieben, darunter den New York Times- Bestseller Weapons of Math Destruction, der eine einflussreiche Quelle für die Community der Human-Centered Artificial Intelligence darstellt. Ihre Meinungskolumnen werden in Bloomberg View veröffentlicht. Sie ist ehemalige Direktorin des Lede-Programms für Datenpraktiken am Tow Center der Columbia University Graduate School of Journalism.

Ich weiß, wie Modelle erstellt werden, weil ich sie selbst baue. Deshalb weiß ich, dass ich meine Werte in jeden einzelnen Algorithmus einbette, den ich erstelle, und dass ich meine Agenda auf diese Algorithmen projiziere.
Konstruktionsbedingt ist die Welt der Big Data isoliert, segmentiert und getrennt, so dass erfolgreiche Menschen wie ich – größtenteils Technologen und gut ausgebildete Weiße – von Big Data profitieren, und es sind die Menschen auf der anderen Seite wirtschaftliches Spektrum, insbesondere farbige Menschen, die darunter leiden. Sie leiden individuell, zu unterschiedlichen Zeiten und zu unterschiedlichen Zeitpunkten darunter. Sie bekommen nie eine klare Erklärung darüber, was tatsächlich mit ihnen passiert ist, weil alle diese Punkte geheim sind und sie manchmal nicht einmal wissen, dass sie gewertet werden.
Die Leute hatten das Gefühl, mit Google befreundet zu sein, und sie glaubten an das „Do No Evil“-Ding, das Google sagte. Sie vertrauten Google mehr als der Regierung, und das habe ich nie verstanden.
Jedes System, das Daten nutzt, teilt die Menschheit in Gewinner und Verlierer. — © Cathy O'Neil
Jedes System, das Daten nutzt, teilt die Menschheit in Gewinner und Verlierer.
Es wird vielleicht nie den Moment geben, in dem jeder sagt: „Oh mein Gott, Big Data ist schrecklich.“
Wenn ich darüber nachdenke, ob ich einen Job annehmen möchte, denke ich nicht nur daran, ob er technisch interessant ist, obwohl ich das durchaus in Betracht ziehe. Ich denke auch über die Frage nach, ob es gut für die Welt ist.
Ein großer Teil unserer Gesellschaft strebt danach, unser Gehalt oder unseren Bonus zu maximieren. Im Grunde denken wir nur in Geldbegriffen. Oder, wenn nicht Geld, dann ist es, wenn man in der Wissenschaft tätig ist, Prestige. Es ist eine andere Art von Währung. Und es gibt diese unermessliche Dimension aller Arbeitsplätze: ob sie die Welt verbessert.
Die Entwickler des Facebook-Algorithmus haben sich dafür entschieden, uns sehen zu lassen, worüber unsere Freunde reden. Sie beschlossen, uns in gewisser Weise mehr davon zu zeigen. Und das ist die Designentscheidung, die sie anders hätten treffen können. Sie hätten sagen können: „Wir zeigen euch Dinge, die ihr wahrscheinlich noch nie zuvor gesehen habt.“ Ich denke, sie haben ihren Algorithmus wahrscheinlich optimiert, um möglichst viel Geld zu verdienen, und das bedeutete wahrscheinlich, den Leuten Dinge zu zeigen, mit denen sie bereits irgendwie einverstanden waren oder denen sie eher zustimmen würden.
Das ist es, was wir tun, wenn wir in Tech-Startups aus dem Silicon Valley arbeiten: Wir denken darüber nach, wer davon profitieren wird. Das ist fast das Einzige, woran wir denken.
Die landesweite Diskussion über die Ansprüche der Weißen, über institutionalisierten Rassismus und die Black-Lives-Matter-Bewegung ist meines Erachtens zu einem großen Teil auf die Ausweitung unseres Verständnisses von Ungleichheit zurückzuführen. Dieses Gespräch wurde von Occupy begonnen.
Ich würde behaupten, dass eines der Hauptprobleme unseres blinden Vertrauens in Algorithmen darin besteht, dass wir diskriminierende Muster verbreiten können, ohne irgendeine Absicht anzuerkennen.
Die Ausbildung, die man erhält, wenn man Techniker wird, wie zum Beispiel ein Datenwissenschaftler – wir werden in Mathematik, Informatik oder Statistik ausgebildet – ist völlig unabhängig von einer Diskussion über Ethik.
Die NSA kauft Daten von privaten Unternehmen, daher sind die privaten Unternehmen die Quelle all dieser Dinge.
Für viele Menschen besteht weniger Zusammenhang zwischen den technischen Entscheidungen, die wir treffen, und den ethischen Konsequenzen, für die wir verantwortlich sind. — © Cathy O'Neil
Für viele Menschen besteht weniger Zusammenhang zwischen den technischen Entscheidungen, die wir treffen, und den ethischen Konsequenzen, für die wir verantwortlich sind.
Das wichtigste Ziel, das ich vor Augen hatte, war, die Menschen davon zu überzeugen, nicht mehr blind Algorithmen zu vertrauen und davon auszugehen, dass sie von Natur aus fair und objektiv sind.
Meine Fantasie ist, dass es eine neue Regulierungsbehörde gibt, die für die algorithmische Prüfung zuständig ist.
Aus irgendeinem Grund habe ich nie das Technische vom Ethischen getrennt.
Von Startup-Leuten hört man immer wieder, dass ihr Produkt die Welt irgendwie verbessert. Und wenn Sie der Argumentation folgen, kommen Sie ans Ziel, und ich sage Ihnen, wo Sie hinkommen: Sie gelangen zu der Beschreibung dessen, was mit den Gewinnern unter dem System passiert, das sie aufbauen.
Google ist so groß, dass man keine Ahnung hat, was eine bestimmte Person tut.
Wir können nicht einfach etwas rauswerfen und davon ausgehen, dass es funktioniert, nur weil es Mathematik enthält.
Je mehr Transparenz wir als Prüfer haben, desto mehr können wir natürlich erreichen, aber das Hauptziel besteht darin, wichtige Merkmale eines Black-Box-Algorithmus zu verstehen, ohne unbedingt jedes einzelne Detail des Algorithmus verstehen zu müssen.
Die Trennung, die ich erlebte, war, dass die Leute die Wall Street hassten, aber sie liebten Technologie.
Vor allem aus meiner Erfahrung als Quant in einem Hedgefonds – ich ging naiv hinein und dachte, ich würde den Markt effizienter machen, und dachte dann: „Oh mein Gott, ich bin Teil dieses schrecklichen Systems, das die Welt in die Luft jagt.“ Wirtschaft, und ich möchte kein Teil davon sein.
Ich denke, dass Big-Data-Unternehmen nur gute Nachrichten mögen. Ich denke, sie hoffen im Wesentlichen nur, dass sie nicht verklagt werden.
Die meisten Menschen haben keinerlei Bezug zu dem, was sie tun, und auch nicht zu Ethik. Sie denken, sie hätten die Fragen der Moral, der Werte oder der Ethik irgendwie hinter sich gelassen, und das habe ich nie für wahr gehalten.
Ich wollte verhindern, dass die Leute ihnen zu viel Macht geben. Ich sehe das als Muster. Ich wollte, dass das so schnell wie möglich ein Ende hat.
Es gibt viele verschiedene Möglichkeiten, wie Algorithmen schief gehen können, und was wir jetzt haben, ist ein System, bei dem wir davon ausgehen, dass es perfekt ist und keiner weiteren Überprüfung bedarf, weil es sich um eine glänzende neue Technologie mit einer mathematischen Aura handelt. Natürlich gehen wir bei anderen Arten von Technologie nie von dieser Annahme aus.
Die Öffentlichkeit vertraut Big Data viel zu sehr.
Aufgrund meiner Erfahrung mit Occupy, anstatt die Frage zu stellen: „Wer wird von diesem System profitieren, das ich mit den Daten umsetze?“ Ich begann die Frage zu stellen: „Was wird mit den Schwächsten geschehen?“ Oder „Wer wird in diesem System verlieren? Wie wird sich das auf die am schlechtesten gestellte Person auswirken?“ Das ist eine ganz andere Frage als „Wie verbessert dies das Leben bestimmter Menschen?“
Eine Versicherungsgesellschaft könnte sagen: „Erzählen Sie uns mehr über sich, damit Ihre Prämien sinken können.“ Wenn sie das sagen, sprechen sie die Gewinner an, nicht die Verlierer.
Ich denke, was passiert ist, ist, dass sich die breite Öffentlichkeit der zerstörerischen Kraft der Wall Street viel stärker bewusst geworden ist. — © Cathy O'Neil
Ich denke, was passiert ist, ist, dass sich die breite Öffentlichkeit der zerstörerischen Kraft der Wall Street viel stärker bewusst geworden ist.
Wir haben unsere Lektion aus dem Finanzwesen gelernt, weil sie eine gewaltige, verdammte Explosion verursacht haben, die fast die Welt lahmlegte. Mir wurde jedoch klar, dass es bei Big Data möglicherweise nie zu einer Explosion im Ausmaß der Finanzkrise kommen wird.
Unter Micro-Targeting versteht man die Möglichkeit einer Kampagne, ein Profil von Ihnen zu erstellen, viel mehr über Sie zu erfahren, als Sie selbst wissen, und dann genau auszuwählen, was Ihnen angezeigt werden soll.
Wenn Menschen durch ein geheimes Bewertungssystem keine Option erhalten, ist es sehr schwer, sich zu beschweren, sodass sie oft nicht einmal wissen, dass sie Opfer geworden sind.
Du wirst nie in der Lage sein, etwas wirklich zu messen, oder? Einschließlich Lehrer.
Occupy bot mir eine Linse, durch die ich systemische Diskriminierung sehen konnte.
Ich glaube nicht, dass irgendjemand jemals darüber informiert wurde, dass er zu einer zusätzlichen Haftstrafe von zwei Jahren verurteilt wurde, weil seine Rückfälligkeitsquote hoch war, oder dass dieser Streifenpolizist aufgrund eines prädiktiven Polizeialgorithmus zufällig in seiner Nachbarschaft war und die Taschen der Leute auf Gras überprüfte. So funktioniert es einfach nicht.
Ich denke, es gibt grundsätzlich ein Problem, mit dem Models buchstäblich nie umgehen können, nämlich dass die Models es nicht erkennen, wenn jemand eine neue Art vorschlägt, etwas wirklich Hervorragendes zu tun. Sie können Exzellenz nur dann erkennen, wenn sie sie irgendwie messen können.
Beweise für einen Schaden sind schwer zu finden.
Ich habe selbst eine Firma gegründet, eine Firma für algorithmische Prüfungen. Ich habe keine Kunden.
Bei Rückfallalgorithmen zum Beispiel mache ich mir Sorgen über rassistische Folgen. Bei Persönlichkeitstests [für die Einstellung] mache ich mir Sorgen, Menschen mit psychischen Problemen aus dem Job herauszufiltern. Und bei einem Mehrwertmodellalgorithmus für Lehrer [der in New York City zur Bewertung von Lehrern verwendet wird] mache ich mir im wahrsten Sinne des Wortes Sorgen, dass er nicht aussagekräftig ist. Dass es fast ein Zufallszahlengenerator ist.
Die Menschen beginnen, dem Facebook-Algorithmus und allen Arten der Datenüberwachung sehr skeptisch gegenüberzustehen. — © Cathy O'Neil
Die Menschen beginnen, dem Facebook-Algorithmus und allen Arten der Datenüberwachung sehr skeptisch gegenüberzustehen.
Wir lassen nicht zu, dass eine Autofirma ein Auto einfach wegschmeißt und damit losfährt, ohne zu überprüfen, ob die Räder befestigt sind. Wir wissen, dass dies zum Tod führen würde; Aber aus irgendeinem Grund zögern wir nicht, einige Algorithmen ungetestet und unüberwacht wegzuwerfen, selbst wenn sie sehr wichtige Entscheidungen über Leben und Tod treffen.
Diese Website verwendet Cookies, um Ihnen das bestmögliche Erlebnis zu bieten. Mehr Info...
Habe es!