Junior
Статус: Не в сети Регистрация: 30.01.2011 Откуда: Кишинев
Slaau писал(а):
в момент, когда умирает человек, его вес реально уменьшается на ~9 грамм, а в момент когда информация стирается, или не обрабатывается, вес компьютера на атомарных весах абсолютно не колеблется. Вывод ?
не уверен что 9 грамм (или 21 грамм) это вес "души" - скорее всего тут речь о простой физиологии и разнице в обмене веществ у живого человека и трупа, но ДАЖЕ если предположить что речь идет именно об информационной составляющей и если предположить, что такую составляющую можно "взвесить" - вывод все равно будет несколько иной - количество информации содержащееся в человеке в триллионы раз больше, чем количество информации, содержащееся сегодня в мире на всех цифровых носителях.... ИМХО.... (может я и написал глупость, но звучит красиво! )
WinRar'ом хоть раз сжимал запаковывая в архив? Или 7-Zip ? Че, совсем не сжимается и вес не уменьшается? Алгоритм работы такой паковальни разъяснить тебе?
Slaau заявляет, что это можно делать в реальном времени
Процитируй пожалуйста где я писал, что можно моделировать более производительный процессор в реальном времени. Где я так написал? Как вы читаете?
Psilon писал(а):
да у него информация вес имеет
Я не писал такого. Ты больной человек. Прочти ещё раз:
Slaau писал(а):
информация в любом своём виде не имеет физического веса, запаха и объёма, её нельзя потрогать.
На что пользователь под ником i-mac мне ответил:
i-mac писал(а):
Цифровая информация имеет свой вес. Он очень маленький, но он есть.
i-mac писал(а):
Посмотри в том же ютюбе ролик "сколько весит интернет?", там говорится о весе электронов, которые и являются предметом передачи любой электронной информации.
А далее я уже просто предположил, согласившись с ним (хотя ранее я писал обратное):
Slaau писал(а):
Окей, допустим это так, цифровая информация имеет материальный, физический вес в виде кучки электронов.
Вот и всё. Теперь объясните мне, почему вы, умные и взрослые люди не можете сопоставить очевидные факты из выше доступной переписки? Ну всё же выше написано. Что произошло с умозаключением нынешнего поколения? Это беда ребятки. Предположения, обсуждения - это не есть утверждение что вы мне приписываете, выше же есть всему доказательства. ---------------------------------------------------------------------------------
Теперь на счёт сжатия информации. Напишу в третий раз. Все известные алгоритмы сжатия, построены на удалении повторений в коде, т.е. одинаковых символов, так работают архиваторы WinRar и 7-Zip. Да, есть формула, описывающая, показывающая нижнюю границу, лучше которой со сжатием без потерь невозможно достичь. Вот на это я и сказал, что возможно достичь. Формулу можно обойти, т.к. она не предусматривает в своём уравнении ещё некоторые составляющие. Разработки ведутся и это скоро станет возможным. Метод так называемой подуровеневой виртуализации, это что-то типа информация в информации, мне реально об этом поведал один дядька, работающий по данной проблеме. Квантовая физика тоже ХАОС, частицы могут одновременно бывать в нескольких местах одновременно и от этого огромная трудность создать полноценный квантовый компьютер, работающий на "квантовой запутанности", потому-что когда на него смотришь, чудо не происходит, даже когда на камеру записываешь происходящее, он всё равно не начинает работать, любое наблюдение исключает квантовые эффекты. Но это же не значит, что невозможно создать квантовый комп? Все ограничения можно обойти. А пока, все ранее построенные квантовые компьютеры слишком примитивны, ограниченные до 512 кубитов. Да короче, чё с вами об этом говорить, эти работы лежат на переднем крае современной науки.
Последний раз редактировалось Slaau 06.12.2013 21:12, всего редактировалось 2 раз(а).
Member
Статус: Не в сети Регистрация: 10.05.2009 Откуда: Нижний Новгород Фото: 1
Mad'Max писал(а):
Раньше повышалась практически пропорционально. Это сейчас горепроетировщики (во главе с Intel) взяли моду лепить чипы по схеме +50% к кол-ву транзисторов (благо миллиарды баксов вливаемые в новые заводы и новые тех. процессы позволяют наращивать плотность их размещения ) и +5% к производительности (т.к. использованы предоставленные технологами возможности бездарно).
Видюха вполне растет, да и постепенно все больше всякого разного в процессор перемещается... В условиях того, что много кому планшета хватает, а конкуренция в производительном сегменте довольно слабая - вполне можно понять, что концентрируются на других проблемах...
Member
Статус: Не в сети Регистрация: 22.09.2011 Откуда: Estland
Slaau писал(а):
Формулу можно обойти, т.к. она не предусматривает в своём уравнении ещё некоторые составляющие. Разработки ведутся и это скоро станет возможным. Метод так называемой подуровеневой виртуализации, это что-то типа информация в информации, мне реально об этом поведал один дядька, работающий по данной проблеме.
Похоже этот же дядька работает над проблемой торсионных полей, информационного поля вселенной и тому подобными вещами.
У нас есть такие приборы Но мы вам о них не расскажем
Member
Статус: Не в сети Регистрация: 20.05.2007 Откуда: Россия
Slaau Возможно ты имеешь ввиду сжатие с потерей качества. Как можно сжать картинку, каждый пиксель который имеет разный цвет, в десятки раз и без потери качества я не представляю.
А каким образом потребление электроэнергии влияет на вычислительную мощность?
Затраты энергии на обработку информации описываются выражением Шеннона-Фон-Неймана-Ландауэра.
Slaau писал(а):
Теперь на счёт сжатия информации. Напишу в третий раз. Все известные алгоритмы сжатия, построены на удалении повторений в коде, т.е. одинаковых символов, так работают архиваторы WinRar и 7-Zip.
Неверно. Удаление последовательностей относится к группе методов преобразования потока. Winrar и 7-zip используют статистические методы со словарем, как уже говорили выше. И преобразование потока и статистические методы на случайных данных дадут на выходе больший по размеру результат, чем исходный массив.
Любые методы, дающие строго меньший объем информации на выходе для произвольных данных - это хэширование, а не архивирование; однозначное восстановление этой информации невозможно.
Slaau писал(а):
... Метод так называемой подуровеневой виртуализации... информация в информации... поведал один дядька... одна бабка сказала ... все ограничения можно обойти... переднем крае современной науки... ракеты бороздят пространство Большого театра...
Неверно. Удаление последовательностей относится к группе методов преобразования потока.
Да, я думал правильно, но написал не правильно. Удаление последовательностей это сжатие с потерями, это верно, применяется при кодировании фото, аудио, видео файлов.
dE fENDER писал(а):
И преобразование потока и статистические методы на случайных данных дадут на выходе больший по размеру результат, чем исходный массив.
Но это ни кто и не оспаривает, я вообще ни разу не сказал, что удаление последовательностей и обратимое сжатие из сжатой последовательности на случайных данных уменьшает размер. Не придумывайте за меня, я такого не говорил.
dE fENDER писал(а):
Любые методы, дающие строго меньший объем информации на выходе для произвольных данных - это хэширование, а не архивирование; однозначное восстановление этой информации невозможно.
Зачем это писать? В случайных данных нет закономерности, там нечего упрощать. Это абсолютно логично и это я не опровергал. Я сказал о другом, что уже существуют наработки уменьшения исходного размера файла на порядки и это не сжатие последовательности. Эта математическая возможность сжимать без потерь не единственный способ.
dE fENDER писал(а):
... Метод так называемой подуровеневой виртуализации... информация в информации... поведал один дядька... одна бабка сказала ... все ограничения можно обойти... переднем крае современной науки... ракеты бороздят пространство Большого театра...
Если хочешь показаться серьёзным человеком, никогда не изменяй оригинальный текст при цитировании, ибо твой ответ на это цитирование изначально означает как ответ самому себе. То бишь шизофрения.
Да, я думал правильно, но написал не правильно. Удаление последовательностей это сжатие с потерями, это верно, применяется при кодировании фото, аудио, видео файлов.
Ты по-прежнему продолжаешь писать и думать неправильно, так что я бы на твоем месте не стал бы продолжать вести дискуссию о том, в чем не разбираешься. Удаление повторений в коде - это алгоритм running и его модификации. Подробнее - здесь: http://ru.wikipedia.org/wiki/Кодирование_длин_серий. Этот алгоритм относится к методам сжатия без потерь. Сжатие с потерями - это преобразования Фурье, вейвлеты и остальное.
Slaau писал(а):
В случайных данных нет закономерности, там нечего упрощать. Это абсолютно логично и это я не опровергал.
Твой ответ на замечание на второй странице говорит об обратном.
Slaau писал(а):
существуют наработки уменьшения исходного размера файла на порядки и это не сжатие последовательности.
Любой конкретный файл произвольной длины и произвольного содержания можно сжать до 1 бита без потерь информации. Никаких других наработок в этом направлении вести не нужно. Только архиватор ничего другого кроме этого файла распаковывать не сможет и размер этого архиватора будет сопоставим с размером исходного файла.
Если речь идет о некоторых категориях файлов с определенным порядком, то квантовые алгоритмы здесь не помогут. Впрочем, если фамилия твоего "дядьки" - Бабушкин, то квантовые алгоритмы могут помочь в обращении хэша, но проблемы здесь в том, что 1). вариантов такой "распаковки" окажется бесконечное множество; 2) Если последовательности короткие - то эффективность будет примерно такая же как в файловой системе Pi-fs, которая хранит данные пользователя в числе Пи без всяких квантовых процессоров (http://habrahabr.ru/post/190202/). 3). Для достаточно длинных последовательностей слишком у многих файлов время подбора все равно окажется больше времени существования вселенной.
Slaau писал(а):
Если хочешь показаться серьёзным человеком...
Я не пытаюсь показаться серьезным человеком, а намекаю тебе на то, что здесь довольно много людей с высшим техническим образованием, но если ты хочешь продолжить их смешить, то я в этом готов помочь.
Member
Статус: Не в сети Регистрация: 20.05.2007 Откуда: Россия
dE fENDER писал(а):
) Если последовательности короткие - то эффективность будет примерно такая же как в файловой системе Pi-fs, которая хранит данные пользователя в числе Пи без всяких квантовых процессоров (http://habrahabr.ru/post/190202/).
Junior
Статус: Не в сети Регистрация: 19.02.2012 Откуда: Беларусь Фото: 1
Mad'Max писал(а):
Раньше повышалась практически пропорционально.Это сейчас горепроетировщики (во главе с Intel) взяли моду лепить чипы по схеме +50% к кол-ву транзисторов (благо миллиарды баксов вливаемые в новые заводы и новые тех. процессы позволяют наращивать плотность их размещения ) и +5% к производительности (т.к. использованы предоставленные технологами возможности бездарно).
Может и не так бездарно как нам кажется. +50% это фактически пол проца, а мы ведь не знаем недокументированных возможностей Осей и процессоров. Вот америкосы и строят за наш счет суперкомп планетарной мощности.
Member
Статус: Не в сети Регистрация: 12.09.2009 Откуда: здесь двоеточие
dE fENDER писал(а):
здесь довольно много людей с высшим техническим образованием
Теперь - гораздо меньше.
dE fENDER писал(а):
если ты хочешь продолжить их смешить, то я в этом готов помочь.
Вы скорее поможете "сделать из круглого дурака - многогранного", менее дураком он оттого не станет (ошибка тут, по-видимому, не в нейронных контактах, а в ДНК), зато умных словей от "дядек" понахватается, а работодателям потом разгребай это всё в резюме. Только здоровый троллингЪ. Строго по Фридриху Вильхельмовичу: "Падающего - толкни!"
_________________ Если Бог за нас, кто против нас?(с) Библия В случае масштабных военных действий, эвакуация населения не только не производится, но и не планируется.
Member
Статус: Не в сети Регистрация: 02.10.2007 Откуда: Пермь Фото: 1
Я всегда считал закон Мура надуманным. Любой думающий человек меня поймет почему. Хотя конечно если вы приверженец поговорки закон для того чтобы его нарушать, тогда конечно. Закон мура истина.
Под этот закон несколько лет подстраиваются. Только и всего.
Member
Статус: Не в сети Регистрация: 20.03.2011 Откуда: Москва
Everlast82 власти-то скрывают. На самом деле все процы работают на 1% мощности, как и системы охлада (не спрашивайте, как железка может работать на 1% - секретные разработки), и объединяют все компы в интернет. Когда накопится критическая масса, они все включаться и наступит конец света. Просто власти скрывают, ЗОГ следит
Цитата:
Я всегда считал закон Мура надуманным. Любой думающий человек меня поймет почему. Хотя конечно если вы приверженец поговорки закон для того чтобы его нарушать, тогда конечно. Закон мура истина.
50 лет он действовал вполне себе. Подстраиваются под него последние пару лет, не более.
_________________ I would tell you a joke about UDP, but you probably wouldn't get it.
Про закрытые военные алгоритмы улыбнуло. Вообще, опровержение рассказов о супералгоритмах путём упоминания энтропии бессмысленно: человек, несущий бред о суперсжатии скорее всего тупо не знает что такое энтропия.
Доказать невозможность алгоритма суперсжатия проще через детерминизм. Если у меня есть алгоритм сжатия без потерь, значит существует алгоритм распаковки, восстанавливающий точно ту же информацию, которая была ужата. В этом заключается детерминизм, всегда когда алгоритм распаковки один и тот же сжатый файл он должен выдать один и тот же распакованный файл. Теперь, предположим, что существует пара супералгоритмов беспотерьного сжатия/распаковки. Для простоты предположим, что алгоритм сжатия почти никогда не сжимает, что для любой входной последовательности бит длиной N он выдаёт в результате последовательность бит той же самой длины N, кроме одного случая, получив на входе последовательность 0101 он выдаёт не 4 бита, а только 3. На первый взгляд, это никакой не супералгоритм сжатия, это убожество, никому не нужное. Но, хохма в том, что даже такая пара алгоритмов не может существовать. Сколько вообще возможно 3хбитных последовательностей? 2 в степени 3, т.е. 8. Т.е. алгоритм суперраспаковки должен будет, получая на входе 3 бита (т.е. одну из 8 возможных последовательностей) выдать на выходе одну из 9 последовательностей (8 последовательностей для распаковки 3хбитных последовательностей и 1 4хбитную 0101). Т.е. для одной из возможных 3битных последовательностей алгоритм распаковки должен будет как-то догадаться, должен он на выходе отдать 0101 или другое значение, сжатие не было беспотерьным. Таким образом, если некий алгоритм беспотерьного сжатия способен уменьшить хотя бы одну из возможных входных последовательностей непременно должна существовать входная последовательность, которая в результате работы алгоритма будет увеличена.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 8
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения