Что такое один бит

Что такое один бит

Всё о Интернете, сетях, компьютерах, Windows, iOS и Android

Бит и Байт — основные единицы измерения информации

Чтобы досканально разобраться что такое Биты, что такое Байты и зачем всё это нужно, давайте сначала стоит немного остановимся на понятии «Информация», так как именно на ней построена работа вычислительной техники и сетей передачи данных, в том числе и нашего любимого Интернета.
Для человека, Информация — это некие знания или сведения, которыми обмениваются люди в процессе общения. Сначала знаниями обменивались устно, передавая друг другу, затем появилась письменность и информацию стали передавать уже с помощью рукописей, а затем уже и книг. Для вычислительных систем Информация — это данные которые собираются, обрабатываются, сохраняются и передаются дальше между звеньями системы, либо между разными компьютерными системами. Но если раньше информация помещалась в книги и её объём можно было хоть как-то наглядно оценить, например в библиотеке, то в условиях цифровых технологий она стала вирутальной и её нельзя измерить с помощью обычной и привычной метрической системы, к которой мы привыкли. Поэтому были введены единицы измерения информации — Биты и Байты.

Бит информации

В компьютере информация хранится на специальных носителях. Вот самые основные и знакомые большинству из нас:

Ваш персональный компьютер или ноутбук получает информацию, в основном в виде файлов с различным объёмом данных. Каждый из этих файлов любой носитель данных на аппаратном уровне получает, обрабатывает, хранит и передаёт в виде последовательности сигналов. Есть сигнал — единица, нет сигнала — ноль. Таким образом вся храняшаяся на жестком диске информация — документы, музыка, фильмы, игры — предствалена в виде нулей: 0 и единиц: 1. Эта система исчисления называется двоичной (используется всего два числа).
Вот одна единица информации (без разницы 0 это или 1) и называеся бит. Само слово bit пришло к нам как аббревиатура от binary digit — двоичное число. Что примечательно, в английском языке есть слово bit — немного, кусочек. Таким образом, бит — это самая наименьшая единица объёма информации.

Сколько битов в Байте

Как Вы уже поняли выше, сам по себе, бит — это самая маленькая единица в системе измерения информации. Оттого и пользоваться ею совсем неудобно. В итоге, в 1956 году Владимир Бухгольц ввёл ещё одну единицу измерения — Байт, как пучок из 8 бит. Вот наглядный пример байта в двоичной системе:

Таким образом, вот эти 8 бит и есть Байт. Он представляет собой комбинацию из 8 цифр, каждая из которых может быть либо единицей, либо нулем. Всего получается 256 комбинаций. Вот как то так.

Килобайт, Мегабайт, Гигабайт

Со временем, объёмы информации росли, причём в последние годы в геометрической прогрессии. Поэтому, решено было использовать приставки метрической системы СИ: Кило, Мега, Гига, Тера и т.п.
Приставка «кило» означает 1000, приставка «мега» подразумевает миллион, «гига» — миллиард и т.д. При этом нельзя проводить аналогии между обычным килобитом и килобайтом. Дело в том, что килобайт — это отнюдь не тысяча байт, а 2 в 10-й степени, то есть 1024 байт.

Соответственно, мегабайт — это 1024 килобайт или 1048576 байт.
Гигабайт получается равен 1024 мегабайт или 1048576 килобайт или 1073741824 байт.

Для простоты можно использовать такую таблицу:

Для примера хочу привести вот такие цифры:
Стандартный лист А4 с печатным текстом занимает в средем около 100 килобайт
Обычная фотография на простой цифровой фотоаппарат — 5-8 мегабайт
Фотографии, сделанные на профессиональный фотоаппарат — 12-18 мегабайт
Музыкальный трек формата mp3 среднего качества на 5 минут — около 10 мегабайт.
Обычный фильм на 90 минут, сжатый в обычном качестве — 1,5-2 гигабайта
Тот же фильм в HD-качестве — от 20 до 40 гигабайт.

Логический • Низший тип • Коллекция • Перечисляемый тип • Исключение • First-class function • Opaque data type • Recursive data type • Семафор • Поток • Высший тип • Type class • Unit type • Void

Связанные темы

Абстрактный тип данных • Структура данных • Интерфейс • Kind (type theory) • Примитивный тип • Subtyping • Шаблоны C++ • Конструктор типа • Parametric polymorphism

Читайте также:  Смартфон самсунг самый большой экран

Wikimedia Foundation . 2010 .

Смотреть что такое "Бит" в других словарях:

БИТ — «Беспроводные информационные технологии» ООО Москва, организация, техн. Источник: http://www.vedomosti.ru/newspaper/article.shtml?2004/10/29/82849 БИТ безопасные информационые технологии кафедра СПбГИТМО образование и наука, Санкт Петербург, техн … Словарь сокращений и аббревиатур

бит — а; мн. род. бит и ов; м. [от англ. сокращения BInary digiT двоичный знак] Минимальная единица измерения количества информации и объёма памяти компьютера (равна одной ячейке или одному двоичному знаку типа да нет ). * * * бит (англ. bit, от… … Энциклопедический словарь

Бит/с — Бит в секунду, бит/с (англ. bits per second, bps) базовая единица измерения скорости передачи информации, используемая на физическом уровне сетевой модели OSI или TCP/IP. На более высоких уровнях сетевых моделей, как правило, используется более… … Википедия

БИТ — (исп.). То же, что реал, монета ценностью в 16 1/2 коп. Словарь иностранных слов, вошедших в состав русского языка. Чудинов А.Н., 1910. БИТ 1 [англ. beat бить] муз. выдержанная в равномерном темпе танцевальная и легкая музыка в размере 4/4 с… … Словарь иностранных слов русского языка

БИТ — (англ. bit от binary двоичный и digit знак), двоичная единица, в теории информации единица количества информации. Бит в вычислительной технике двоичная цифра, двоичный разряд. число бит памяти ЭВМ определяет максимальное количество двоичных цифр … Большой Энциклопедический словарь

бит — двоичная единица информации, двоичный знак Словарь русских синонимов. бит сущ., кол во синонимов: 2 • биг бит (2) • е … Словарь синонимов

Бит — (bit) Аббревиатура понятия двоичный разряд . См.: двоичная запись (binary notation). Бизнес. Толковый словарь. М.: ИНФРА М , Издательство Весь Мир . Грэхэм Бетс, Барри Брайндли, С. Уильямс и др. Общая редакция: д.э.н. Осадчая И.М.. 1998. Бит … Словарь бизнес-терминов

бит — бит, а; р. мн. ов, счётн. ф.бит (единица количества информации) … Русское словесное ударение

БИТ — БИТ, а, муж. (спец.). Единица измерения количества информации (в 1 знач.). Толковый словарь Ожегова. С.И. Ожегов, Н.Ю. Шведова. 1949 1992 … Толковый словарь Ожегова

бит — единица количества информации, которая содержится в сообщении типа «да» – «нет». Бит в вычислительной технике – двоичная цифра, двоичный разряд, принимающий только два значения – 0 или 1. Одним битом можно выразить только два числа – 0 и 1.… … Энциклопедия техники

БИТ — (бит, bit) (от англ. binary двоичный и digit знак, цифра), единица кол ва информации в двоичной системе. Обычно последовательность из восьми Б. наз. байтом. Физический энциклопедический словарь. М.: Советская энциклопедия. Главный редактор А. М.… … Физическая энциклопедия

То, что не влезает в твиттер

Один бит – сколько это?

Все просто, один бит – это количество информации, передаваемое одним бинарным сообщением, то есть одним сообщением из двух возможных. Например, ответ да/нет, 0/1 или влево/вправо.

Но не на столько просто. Важно, чтобы соблюдались два условия: третий варианта ответа невозможен и у вас до этого не было никакой информации о заданном вопросе. То есть, если вы спрашиваете у вашей новой знакомой, замужем ли она, то ее ответ почти никогда не будет содержать ровно один бит инормации. И не только потому, что кроме ответов да/нет она может ответить “не ваше дело” или “раведена”, но еще и потому что вы заранее можете оценить вероятность того, что она замужем: по ее возрасту, по поведению или по кольцу на пальце.

Хорошо, дальше все легко, два бита – это в два раза больше, чем один. Но что именно означает “в два раза больше”?

Во-первых, для простоты давайте абстрагируемся от формы ответа и будем считать, что один из двух возможных ответов всегда 0, а другой – 1: нет – 0, да – 1 или влево – 0, вправо – 1 и т. д.

Итак, двумя битами можно, например, представить информацию о маршруте, на котором есть две развикли, то есть всего четыре маршрута: дважды влево, влево-вправо, вправо-влево и дважды вправо. Нетрудно посчитать, что если маршрутов восемь, то для выбора одного из них, нужно три бита. А в общем случае, для кодирования одного из N состояний (о которых у нас нет предварительной информации), требуется log2 N бит.

Читайте также:  Стим чат в игре

На этом все. Теперь вы знаете все о том, как измеряется количество информации.

На самом деле нет. Жизнь была бы слишком простой.

Где-то в этих рассуждениях есть фундаментальная ошибка. В самом деле, посмотрите на следующие два сообщение, где каждый бит закодирован цифрами 0 и 1:

Забудьте все, что я вам сказал до этого и, основываясь только на интуиции, ответьте на вопрос, в каком сообщении больше информации.

М-да. Что же делать? Не то, чтобы предыдущее определение было полностью неверным, но оно не соответствует нашему интуитивному пониманию информации.

Интуитивно, в первом сообщении больше информации, потому что оно выглядит более случайным. А еще важнее то, что если вы захотите продиктовать обе последовательности по телефону, то в первом случае трудно придумать что-то более оптимальное, чем просто проговаривание цифр одна за другой, в то время как для передачи второго, можно просто сказать “восемнадцать раз 01”.

Может быть правильно было посчитать сколько информации в сообщении “восемнадцать раз” и добавить два? Это можно попытаться сделать: записать восемнадать в двоичной системе – 10010, а потом закодировать понятие “раз”: запишем 0, если следующие цифры – непосредственно само сообщение, и 1, если используется формулировка “N раз M”, где M – сообщение, которое предполагается повторить N раз. Саму формулировку “N раз M” запишем так: сначала N в двоичной системе, причем каждую цифру запишем дважды (00111100 вместо 0110), затем цифры 01, а затем сообщение M. Цифры числа N будем дублировать, чтобы было понятно, когда заканчивается N и начинается M, 01 будет играть роль разделителя, ведь если его пропутить, то если M начинается с двух одинаковых цифр, то будет непонятно, это окончание N или начало M.

Этот нехитрый трюк позволяет записать исходное сообщение из 18 пар 01 строкой 111000011000101, а это всего 15 бит. Правда сообщения из цифр, в которых нет повторяющихся последовательностей, придется записывать по-прежнему полностью, да еще и в придачу приписывать ко всем 0, чтобы отличить их от закодированных.

Зачем все это? Ах да, мы хотели оценить количество информации в сообщении таким образом, чтобы чтобы это больше соответствовало нашему интуитивному понятию информации. Получается в нашем исходном первом сообщении 19 бит информации, а во втором – 15. Что ж, это уже лучше. Немного смущает тот факт, что в первом сообщении мы теперь считаем один “лишний” бит, но зато наша оценка больше соответствует нашей интуиции: во втором сообщении информации меньше.

Ну как, удалось ли мне вас убедить, то такая оценка лучше, чем простой подсчет цифр?

Но нельзя сказать, что идея совсем безнадежна. Не будем ее отбрасывать, а вместо этого попробуем ее немного улучшить.

Во-первых, смущает то, что ко всем сообщениям без повторений мы приписывам 0, а во вторых даже если повторения есть, иногда закодировав сообщение вышеописанным способом, цифр становится больше а не меньше.

Но если подумать, первый недостаток не так уж и важен при оценке очень длинных сообщений, а от второго недостатка можно избавиться, если для таких сообщений не использовать кодирование, а записывать их как есть.

Более фундаментальную проблему мы увидим, если попытаемся оценивать количество инофрмации в таких сообщениях, где нет повторений, а вместо этого угадывается другая регулярность. Например, интуиция подсказывае, что во втором сообщении меньше информации:

Потому что, опять же, если представить, что мы заходим его продиктовать по телефону, скорее всего мы скажем что-то вроде “восемь единиц, разделенных нулями, причем количество нулей увеличивается каждый раз на один, то есть один, ноль, один, два нуля, один, три нуля и т. д.”

Эта формулировка кажется длинной и запутанной, и возможно на практике некоторые предпочтут проговорить все цифры как есть, но я готов поспорить, что если бы эта последовательность состояла из миллиона цифр, то вы бы поменяли свое мнение.

Тогда можно действовать по старому плану: придумать как закодировать нулями и единицами фразы типа “N единиц, разделенных нулями. ” и т. д.

Читайте также:  Ноутбук разрядился и не заряжается

Ну а теперь, я бы хотел спросить как на счет строки 1000000000000000000000000001, но боюсь, что вы начнете в меня кидать тухлыми помидорами, ведь примеров строк с различными регуляностями бесконечно много. И даже если согласиться, что оценка, использующая то или иное кодирование, имеет некоторый смысл, она никогда не будет идиальной, потому что всегда найдется регулярность, для которой мы еще не придумали способ кодирования.

А кроме того, как быть, если одну и ту же строку можно закодировать несколькими способами?

На этот вопрос есть простой ответ, который предложил Рей Соломонофф в 1960 году.

Вместо придумывания разных способов кодирования регулярных (в каком бы то ни было смысле) строк, мы воспользуемся какой-нибудь универсальной алогритмической моделью, например универсальной машиной Тьюринга. То есть, для оценки количества информации в строке, мы выпишем все возможные описания машин Тьюринга вместе с исходными состояниями ленты такие, что при после окончании работы машины, на ленте будет записана наша исходная строка. Из всех этих описаний мы выберем самое короткое. Именно его длинну мы и возьмем за меру количества информации.

Нет? Давайте по-порядку. Универсальная машина Тьюрига – это открытие, которое сделал Тьюринг в 1936 году. Оно описано в статье под названием “О вычислимых числах с приложением к проблеме разрешимости” на 36 страницах.

В статье описывается построение машины Тьюринга, которая является универсальной в том смысле, что она выполняет не заранее заданный алгоритм, а алгоритм, который записан на ленте в качестве входных данных. Причем этот алгоритм записывается в виде описания машины Тьюрига. То есть показывается по крайней мере теоретическая возможность создания машины, которая может выполнять любой алгоритм, неизвестный заранее в момент конструирования машины.

Сегодня этим вряд ли кого-то удивишь. Все современные, и не очень, компьютеры обладают этим свойством. Вы покупаете компьютер не под конкретную задачу, а универсальный. Какую задачу он будет решать, зависит от того, какую программу вы на нем запустите. Но в 1936 году это было фундаментальное открытие. До Тьюрига все создаваемые машины проектировались для выполнения одного конеретного алгоритма.

Если вы заинтересовались, я рекомендую прочитать книгу Пецольда “Annotated Turing”, в которой подробно, абзац за абзацем, разбирается работа Тюринга 1936 года. Ну а самые стойкие могут прочитать оригинальную статью.

В любом случае, какое отношение это имеет к нашей оценке информации? Универсальная машина Тьюрига – это, по просту говоря, компьютер с бесконечной памятью. Он считывает программу, записанную в памяти (в МТ – на ленте), и выполняет ее. Входные данные берутся тоже из памяти (записаны рядом на ленте).

Так вот, для оценки количества информации в сообщении, мы выпишем все возможные программы и их входные данные, такие, что результатом работы этих программ является наше сообщение. Самую короткую их этих программ (и ее иходные данные) мы и будем считать самым лучшим представлением сообщения, а ее длинну, опять включая входные данные, – количеством информации в нем.

Естественно, перебрать все возможные программы, не так-то просто. На самом деле, дела обстоят еще хуже – это сделать в общем случае невозможно. Если вам интересен этот вопрос, я рекомендую книгу Майкла Сипсера, в которой очень понятным языком описываются техники доказательства теорем о вычислительной неразрешимости различных проблем. Но для наших целей это не так уж и важно.

В самом деле, не всегда важно знать точное количество информации в сообщении, если есть возможность ее оценивать прибилизительно или сравнивать различные сообщения “по информативности” между собой.

Но если вы думаете, что такое определение имеет слишком ограниченную сферу применения, вы совершенно правы. Настолько правы, что никто на практике им не пользуется, а вместо этого по-старинке называет количеством информации число нулей и единиц в сообщении, каким бы простым и регулярным оно ни было.

А то, что я описал, называют дискриптивной сложностью, или просто сложностью. В некоторых источниках ее еще называют сложностью Колмогорова-Хайтина, а также алгоритмической энтропией, а также другими очень умными, но мало о чем говорящими, словами.

Ссылка на основную публикацию
Что такое автозагрузка в компьютере
Автозагрузка в Windows 10 В Windows 10 есть много интересных особенностей. Но сейчас речь пойдет о такой штуке, как автозагрузка....
Чернила светятся в ультрафиолете
Употребление симпатических (невидимых) чернил подразумевает запись неразличимую в обычных обстоятельствах, но появляющуюся после фото, химической или физической проявки. Это есть...
Чернила для принтера в шприцах
Заправочные комплекты INKO в шприцах 3х20 мл., с высококачественными чернилами на основе красителя (Dye ink) и пигментные чернила (Pigment ink)...
Что такое айти специалист
Именно в ИТ стремится перейти больше всего представителей других профессиональных областей — там хотел бы работать каждый пятый российский соискатель....
Adblock detector