Название: Хартли, Ральф
Вид работы: реферат
Рубрика: История
Размер файла: 16.88 Kb
Скачать файл: referat.me-162929.docx
Краткое описание работы: Введение 1 Биография 2 Научная деятельность 3 Публикации 4 Цитата 5 Библиография Введение Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, родился 30 ноября 1888 в Ели, штате Невада, умер 1 мая 1970. Американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации H = Klog2(M), которая называется хартлиевским количеством информации.
Хартли, Ральф
План
Введение
1 Биография
2 Научная деятельность
3 Публикации
4 Цитата
5 Библиография
Введение
Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, родился 30 ноября 1888 в Ели, штате Невада, умер 1 мая 1970. Американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации H = Klog 2(M ), которая называется хартлиевским количеством информации .
1. Биография
Он получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.
2. Научная деятельность
После возвращения из Англии, Хартли присоединился к Научно-исследовательской лаборатории Западной Электрической Компании и принял участие в создании радиоприёмника для трансатлантических тестов. В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой). В течение этого периода он сформулировал закон, "что общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи."
Хартли был пионером в области Информационной Теории. Он ввёл понятие "информации" (энтропии) как случайной переменной и был первый, кто попытался определить "меру информации". Хартли развивал понятие информации, основанной на "физическом как противопоставлено с психологическими рассмотрениями" для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие. Вместо этого он обращается к "точности ... информации" и "количества информации".
Информация существует в передаче символов, с символами, имеющими "определённые значения к партийному сообщению". Когда кто - то получает информацию, каждый полученный символ позволяет получателю "устранять возможности", исключая другие возможные символы и их связанные значения. "
Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.
Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений).
3. Публикации
1. Hartley, R.V.L., "Transmission of Information", Bell System Technical Journal , July 1928, pp.535–563.
2. Hartley, R.V.L., "A Wave Mechanism of Quantum Phenomena", Physical Review , Volume 33, Page 289, 1929 (abstract only)
3. Hartley, R.V.L., "Oscillations in Systems with Non-Linear Reactance", The Bell System Technical Journal , Volume 15, Number 3, July 1936, pp 424 - 440
4. Hartley, R.V.L., "A More Symmetrical Fourier Analysis Applied to Transmission Problems," Proceedings of the IRE 30, pp.144–150 (1942).
5. Hartley, R.V.L., "A New System of Logarithmic Units", Proceedings of the IRE , January 1955, Vol. 43, No. 1.
6. Hartley, R.V.L., "Information Theory of The Fourier Analysis and Wave Mechanics", August 10, 1955, publication information unknown.
7. Hartley, R.V.L., "The Mechanism of Gravitation", January 11, 1956, publication information unknown.
4. Цитата
Хотя частотные отношения в электрических связях интересны сами по себе, их обсуждение в этой ситуации едва ли будет оправдано, если мы не сможем вывести из них достаточно общие практические применения к разработке систем связи. То, что я надеюсь достичь в этом направлении, должно установить количественную меру, посредством которой могут быть сравнены мощности различных систем передачи информации» – [1, стр.535] |
5. Библиография
1. Hartley R.V.L. Transmission of information. — Bell System Technical Journal - 7. — 1928. — С. 535-63.
перевод:Хартли Р.В.Л.
Передача информации. // Теория информации и ее приложения. — Физматгиз, 1959.
Источник: http://ru.wikipedia.org/wiki/Хартли,_Ральф
Похожие работы
-
Дальгрен, Джон
Джон Адольфус Бернард Дальгрен (англ. John Adolphus Bernard Dahlgren; 13 ноября 1809, Филадельфия — 12 июля 1870) — американский морской офицер, контр-адмирал, участник гражданской войны в США на стороне Союза. Дальгрен внёс вклад в развитие военно-морской тактики и разработал несколько видов корабельных орудий.
-
Розенблатт, Фрэнк
Фрэнк Розенблатт (англ. Frank Rosenblatt; 11 июля 1928 – 1971) — известный американский учёный в области психологии, нейрофизиологии и искусственного интеллекта. Родился в Нью-Йорке, закончил Принстонский университет. В 1958-1960 годах в Корнелльском университете создал вычислительную систему «Марк-1» (на фотографии рядом с ним).
-
Лисков, Барбара
План Введение 1 Биография 2 Награды 3 Библиография Список литературы Введение Барбара Лисков (англ. Barbara Liskov , род. Барбара Джейн Хьюберман — Barbara Jane Huberman
-
Харари, Фрэнк
Введение 1 Биография 2 Математика 3 Библиография Список литературы Введение Фрэнк Харари (англ. Frank Harary) (11 марта 1921 — 4 января 2005) — американский математик, специализировавшийся на теории графов. Является признанным отцом современной теории графов.[1]
-
Аллен, Фрэнсис Элизабет
План Введение 1 Биография 2 Награды Список литературы Введение Фрэнсис Элизабет Аллен (англ. Frances Elizabeth Allen, 1932 года, Нью-Йорк, США) — американский учёный в области теории вычислительных систем. Первая женщина, награждённая премией Тьюринга.[1]
-
Перепись населения США 1800
План Введение 1 Вопросы 2 Доступность информации 3 Сводная информация Список литературы Введение Перепись населения США 1800 года была второй переписью населения проводимой в США. Она была проведена 4 августа 1800 года.
-
Хронология развития теории информации
Хронология событий, связанных с теорией информации, сжатием данных, кодами коррекции ошибок и смежных дисциплин: 1872 — Людвиг Больцман представляет свою H-теорема, а вместе с этим формулу Σpi log pi для энтропии одной частицы газа.
-
Скотт, Дана Стюарт
Да́на Стю́арт Скотт (англ. Dana Stewart Scott , р. 1932) — американский учёный в области математики и информатики. Исследования Скотта связанны с теорией моделей, теорией автоматов, модальной и интуиционистской логиками, конструктивной математикой и связью между логикой и теорией категорий.
-
Голубев, Николай Николаевич
Введение 1 Биография 2 Научная деятельность 3 Библиография Список литературы Введение Николай Николаевич Голубев (12 (24) сентября 1875 — после 1948) — юрист, доктор международного права, профессор Ярославского Демидовского юридического лицея и Ярославского университета.
-
Род Перси
План Введение 1 1-й род Перси 2 2-й род Перси 3 3-й род Перси 5 Библиография Введение Род Перси (англ. Percy ) — 3 английских дворянских рода. 1. 1-й род Перси