42 лучших цитат и высказываний Кейт Кроуфорд

Изучите популярные цитаты и высказывания австралийской писательницы Кейт Кроуфорд.
Последнее обновление: 17 ноября 2024 г.
Кейт Кроуфорд

Кейт Кроуфорд — писательница, композитор, продюсер и академик. Кроуфорд — главный научный сотрудник Microsoft Research, соучредитель и бывший директор по исследованиям AI Now Institute при Нью-Йоркском университете, приглашенный профессор Центра гражданских медиа Массачусетского технологического института, старший научный сотрудник Института информационного права Нью-Йоркского университета и доцент Центра журналистики и медиа-исследований Университета Нового Южного Уэльса. Она также является членом Совета глобальной повестки дня ВЭФ по развитию, основанному на данных. Ее исследования сосредоточены на социальных изменениях и медиа-технологиях, особенно на взаимодействии людей, мобильных устройств и социальных сетей. Она опубликовала публикации о культуре использования технологий и о том, как история средств массовой информации формирует настоящее.

Утверждение о том, что необходимо экспериментировать на миллионах людей без их согласия, чтобы создать хорошую науку о данных, является недостатком воображения и методологии.
Данные всегда будут нести следы своей истории. Это человеческая история, хранящаяся в этих наборах данных.
Многие из нас теперь ожидают, что наши онлайн-действия будут записаны и проанализированы, но мы предполагаем, что физические пространства, в которых мы живем, другие. Индустрия брокеров данных так не считает. Для них даже ходьба по улице является законным набором данных, которые нужно собирать, каталогизировать и использовать.
Данные — это то, что мы создаем, но также и то, что мы воображаем. — © Кейт Кроуфорд
Данные — это то, что мы создаем, но также и то, что мы воображаем.
Хотя многие поставщики больших данных делают все возможное, чтобы деидентифицировать людей из наборов данных о людях, риск повторной идентификации очень реален.
Хотя массивные наборы данных могут показаться очень абстрактными, они неразрывно связаны с физическим местом и человеческой культурой. А места, как и люди, имеют свой индивидуальный характер и зерно.
Если у вас есть комнаты, которые очень однородны, у всех одинаковый жизненный опыт и образование, и все они относительно богаты, их взгляд на мир будет отражать то, что они уже знают. Это может быть опасно, когда мы создаем системы, которые повлияют на столь разнообразные группы населения.
Скрытые предубеждения как на этапах сбора, так и на этапах анализа представляют значительный риск и так же важны для уравнения больших данных, как и сами цифры.
Возникла философия, согласно которой большие данные — это все, что вам нужно. Мы бы предположили, что на самом деле цифры не говорят сами за себя.
Данные и наборы данных не являются объективными; они являются творениями человеческого дизайна. Мы придаем числам их голос, делаем из них выводы и определяем их значение посредством наших интерпретаций.
У нас должна быть такая же правовая защита для алгоритмических решений, как и для человеческих решений.
Если вы не думаете о том, как систематическая предвзятость может распространяться через систему уголовного правосудия или предиктивную полицию, то весьма вероятно, что если вы разрабатываете систему, основанную на исторических данных, вы будете увековечивать эти предубеждения. .
Если мы начнем использовать наборы данных из социальных сетей, чтобы следить за пульсом нации или понимать кризис — или фактически использовать их для развертывания ресурсов — мы получаем искаженную картину происходящего.
Тревога наблюдателя всегда является сиамским близнецом: тревога тех, за кем наблюдают, тесно связана с тревогой наблюдателей. Но тревогу наблюдателей обычно трудно заметить; он спрятан в секретных документах и ​​доставлен на строго закодированных языках перед комитетами Сената.
По мере того, как мы вступаем в эпоху, когда персональные устройства рассматриваются как средства удовлетворения общественных потребностей, мы рискуем, что уже существующее неравенство еще больше укоренится. Таким образом, с каждым набором больших данных нам нужно спрашивать, какие люди исключены. Какие места менее заметны? Что произойдет, если вы живете в тени больших наборов данных?
Нам нужно быть бдительными в отношении того, как мы проектируем и обучаем эти системы машинного обучения, иначе мы увидим укоренившиеся формы предвзятости, встроенные в искусственный интеллект будущего.
Самостоятельное отслеживание с помощью носимого устройства может быть увлекательным.
Только развивая более глубокое понимание систем ИИ, как они действуют в мире, мы можем гарантировать, что эта новая инфраструктура никогда не станет токсичной.
Vivametrica — не единственная компания, которая борется за контроль над пространством данных о фитнесе. Стать законодателем стандартов по умолчанию для показателей здоровья — это большая сила. Любая компания, которая становится группой анализа данных для таких брендов, как Fitbit и Jawbone, зарабатывает много денег.
Сторонники больших данных хотят, чтобы мы поверили, что за строками кода и огромными базами данных скрывается объективное и универсальное понимание моделей человеческого поведения, будь то потребительские расходы, преступные или террористические акты, здоровые привычки или производительность труда сотрудников. Но многие евангелисты больших данных избегают пристального взгляда на слабые стороны.
Книги о технологических стартапах имеют шаблон. Во-первых, это великое видение основателей, затем героическое путешествие по созданию новых миров из ночного кодирования и злоупотребления кофеином, и, наконец, великий финал: огромное богатство и светская святость. Назовем это рассказом о Джобсе.
Facebook — это не мир.
Имея дело с данными, ученые часто пытались учесть риски и вред, которые может нанести их использование. Одной из основных проблем является конфиденциальность - раскрытие конфиденциальных данных о лицах либо непосредственно общественности, либо косвенно из наборов анонимных данных посредством вычислительных процессов повторной идентификации.
Как и все предшествующие технологии, искусственный интеллект будет отражать ценности его создателей. Таким образом, инклюзивность имеет значение — от того, кто ее разрабатывает, до того, кто входит в совет директоров компании и какие этические точки зрения учитываются.
Опасения не в том, что большие данные различают. Мы уже знаем, что это так. Дело в том, что вы не знаете, подвергались ли вы дискриминации.
Люди думают, что «большие данные» позволяют избежать проблемы дискриминации, потому что вы имеете дело с наборами больших данных, но на самом деле большие данные используются для все более и более точных форм дискриминации — формы «красной черты» данных.
Сексизм, расизм и другие формы дискриминации встроены в алгоритмы машинного обучения, лежащие в основе технологии многих «интеллектуальных» систем, определяющих, как нас классифицируют и рекламируют.
Не существует быстрого технического решения социальной проблемы.
Наборы больших данных никогда не бывают полными.
Большие данные не являются ни дальтониками, ни гендерными слепотами. Мы видим, как это используется в маркетинге для сегментации людей. — © Кейт Кроуфорд
Большие данные не являются ни дальтониками, ни гендерными слепотами. Мы видим, как это используется в маркетинге для сегментации людей.
С большими данными приходит большая ответственность.
Истории дискриминации могут жить на цифровых платформах, и если они не подвергаются сомнению, они становятся частью логики повседневных алгоритмических систем.
Нам срочно нужны более строгие правовые процедуры с алгоритмическими системами, влияющими на нашу жизнь. Если вам присвоен балл, который ставит под угрозу вашу возможность получить работу, жилье или образование, вы должны иметь право видеть эти данные, знать, как они были получены, а также иметь возможность исправлять ошибки и оспорить решение.
Склонные к ошибкам или предвзятые системы искусственного интеллекта могут испортить нашу социальную экосистему способами, которые изначально трудно обнаружить, нанести вред в долгосрочной перспективе и дорого — или даже невозможно — исправить.
Числа не могут говорить сами за себя, а наборы данных — независимо от их масштаба — по-прежнему являются объектами человеческого дизайна.
Нам нужны широкие дебаты об этике, границах и регулировании технологий данных о местоположении.
Предубеждения и слепые пятна существуют в больших данных так же, как и в индивидуальном восприятии и опыте. Тем не менее, существует проблематичное убеждение, что большие данные всегда являются лучшими данными и что корреляция так же хороша, как и причинно-следственная связь.
Количество денег и промышленной энергии, которые были вложены в ускорение кода ИИ, означало, что не было столько энергии вложено в размышления о социальных, экономических и этических основах для этих систем. Мы считаем, что очень важно, чтобы это произошло быстрее.
Мы всегда должны с подозрением относиться к системам машинного обучения, которые описываются как свободные от предвзятости, если они были обучены на данных, сгенерированных человеком. Наши предубеждения встроены в эти обучающие данные.
Вместо того, чтобы предполагать, что Условия обслуживания эквивалентны информированному согласию, платформы должны предлагать настройки подписки, в которых пользователи могут выбрать присоединение к экспериментальным панелям. Если они не соглашаются, их не заставляют участвовать.
По мере того, как ИИ становится новой инфраструктурой, незаметно протекающей через нашу повседневную жизнь, как вода в наших кранах, мы должны понимать его краткосрочные и долгосрочные последствия и знать, что он безопасен для всех.
Алгоритмы обучаются, получая определенные изображения, часто выбранные инженерами, и система строит модель мира на основе этих изображений. Если система обучается на фотографиях преимущественно белых людей, ей будет труднее распознавать небелые лица.
Этот сайт использует файлы cookie, чтобы обеспечить вам максимальное удобство. Больше информации...
Понятно!