24 лучших цитаты и высказывания Ганса Христиана фон Байера
Изучите популярные цитаты и высказывания Ганса Христиана фон Байера.
Последнее обновление: 9 ноября 2024 г.
Ханс Кристиан фон Байер — канцлер, профессор физики в Колледже Уильяма и Мэри. Среди его книг «Информация: новый язык науки» , «Тепло рассеивается» и «Время проходит: история тепла» и «Кьюбизм: будущее квантовой физики» .
Запах субъективности цепляется за механическое определение сложности так же упорно, как и за определение информации.
Как инстинктивно знает каждый букмекер, такое число, как надежность - качественная, а не количественная мера - необходимо, чтобы оценка информации была практически полезной.
Мы не знаем, что такое энергия, не больше, чем мы знаем, что такое информация, но как устойчивая научная концепция мы можем описать ее в точных математических терминах, а как товар мы можем ее измерять, продавать, регулировать и облагать налогом.
Для процветания квантовых коммуникаций и квантовых вычислений необходимо разработать новую теорию информации.
Если интенсивность материального мира отложить по горизонтальной оси, а отклик человеческого разума — по вертикальной, то отношение между ними будет представлено логарифмической кривой. Может ли это правило дать ключ к взаимосвязи между объективной мерой информации и нашим субъективным ее восприятием?
Есть ли под изменчивой видимостью мира, воспринимаемой нашими ненадежными чувствами, или нет основа объективной реальности?
Решение проблемы Монти Холла зависит от концепции информации и, более конкретно, от отношения между добавленной информацией и вероятностью.
Если вы чего-то не понимаете, разбейте это на части; свести его к составляющим. Поскольку они проще целого, у вас гораздо больше шансов их понять; и когда вам это удастся, снова соберите все вместе.
Фактически теория информации, не учитывающая проблему шума, оказывается бессодержательной.
Числа внушают чувство реальности и снабжают зерном математическую мельницу, которая является основным инструментом физика.
Когда я только начинал, я думал, что физика — это не то: я узнал, что идея состоит в том, чтобы объяснить природу в терминах ясно понятых математических законов; но, возможно, сравнения — это лучшее, на что мы можем надеяться.
С одной стороны, коллекция пьес Шекспира богаче, чем телефонная книга, в которой используется такое же количество букв; иными словами, суть информации заключается в отношениях между битами, а не в их простом количестве.
Наука научила нас, что то, что мы видим и к чему прикасаемся, не является тем, что есть на самом деле.
Чтобы понять информацию, мы должны дать ей определение; немного, чтобы определить его, мы должны сначала понять его. Когда начать?
Энтропия связана не со скоростью или положением частиц, как температура, давление и объем, а с отсутствием у нас информации.
Переход от «паровых двигателей» к «тепловым двигателям» знаменует собой переход от инженерной практики к теоретической науке.
Парадокс — самый острый скальпель в сумке науки. Ничто не концентрирует ум так эффективно, независимо от того, противопоставляет ли оно две конкурирующие теории друг другу, или теорию против наблюдения, или убедительный математический вывод против обычного здравого смысла.
И индукция, и дедукция, рассуждение от частного и общего и обратно от всеобщего к частному составляют сущность научного мышления.
Электрон реален; вероятность нет.
Информация мягко, но безжалостно льется на нас невидимым неосязаемым электрическим дождем.
Проблема определения точного значения скорости сигнала, возникшая еще в 1907 г., не решена.
Из поколения в поколение полевые гиды по растениям и животным оттачивали удовольствие от созерцания, открывая наш разум для понимания. Теперь Джон Адам заполнил пробел в этом почтенном жанре своими кропотливыми, но простыми математическими описаниями знакомых мирских физических явлений. Это не что иное, как математический справочник по неживой природе.
Время называют Божьим способом убедиться, что все не происходит сразу. В том же духе шум — это способ, которым Природа следит за тем, чтобы мы не узнали всего, что происходит. Короче говоря, шум — защитник информации.
Клод Шеннон, основатель теории информации, изобрел способ измерения «количества информации» в сообщении без определения самого слова «информация» и даже без решения вопроса о значении сообщения.