Re: Вопрос: А есть ли где-нибудь матописание суперкомрессии без потерь?


Сайт о сжатии >> Форум #Компрессор# >> [Ответить] [Ответы]

Автор: Сергей, <zu@valley.ru>
Россия, 19 ноября 2002 года в 13:00:08

В ответ на : Re: Вопрос: А есть ли где-нибудь матописание суперкомрессии без потерь? от Serge Osnach в 18 ноября 2002 года в 19:55:34:


> > Интересуют описания суперкомрессии без потерь
> Это есть в теории множеств. :)
> Достаточно просто доказывается, что
> таких алгоритмов не существует.
Так и предполагал, что в ответ услышу что-то подобное… Вообще-то я попробовал найти в теории множеств такое доказательство, посмотрел и в учебниках и в инете – что-то там я ничего не нашел. Максимум, что я нашел в виде доказательства невозможности существования такого алгоритма в инете – что-то типа «отображением множества всегда является множество», что в общем-то ни о чем не говорит. Множество архивов (цепочек с примерным равенством 1 и 0 в них) гораздо менее мощное, чем множество всех остальных файлов той же длины.
В то же время есть такой пример – под ДОС была такая замечательная программка-заставка «Полет над песками Марса», размером что-то порядка 1 или 2 килобайт. У меня возник вопрос – а если то же самое мы опишем в МП4 формате (до повтора) – сколько это займет места?
Значит можно для данного случая создать какой-то алгоритм, позволяющий получить суперкомпрессию. За счет чего она получается – данные описываются в виде функции. Но это для частного случая – а можно ли применить для любого? Возникла тут у меня на основании этих рассуждений одна идейка (в реализации не совсем такая, как описал выше, но в общем-то в первом приближении недалеко от этого), написал несколько тестовых программок – и вдруг неожиданно для самого себя увидел, что вроде бы она (идея) должна работать. Но есть очень большие сомнения что такой алгоритм потянет современный компьютер… Вполне возможно, что эффект архивации и будет достигнут, но необходимое для вычисления нужной функции время будет измеряться днями или годами или столетиями. Точно математику к сожалению пока не досчитал – слишком уж она при кажущейся простоте идеи получается навернутой – и в теоретическом плане и при возможной реализации в программе.
И, естественно, у меня возник вопрос – а может я пытаюсь изобрести велосипед? Может уже есть что-то подобное, описанное математиками и уже известно примерно, что при достижении компьютерами определенной мощности такие архиваторы появятся? В любом случае математику я наверное досчитаю – надеюсь, что в течении ближайшего месяца. Но имеют ли смысл мои телодвижения в данном направлении? Вот как раз этот вопрос я и хотел для себя прояснить, может все это уже давно известно и не стоит тратить впустую время...

> Любой архиватор/компрессор сжимает
> реальные данные за счет имеющихся в
> данных закономерностей (достаточно
> частые повторения цепочек символов,
> существенно разные вероятности
> появления разных символов и т.д.)
Опять-таки, здесь говорится о тех архиваторах, которые существуют на сегодня и о тех закономерностях, которые они используют. Но ведь возможны и другие принципы!

> "Теоретически несжимаемые данные" обладают тем свойством, что в них подобные закономерности отсутствуют.
> Возможно, в некоторых специальных случаях и получится выделить закономерности, но они не будут
> применимы для подавляющего большинства
> файлов.
Опять-таки неверное утверждение! Для любых файлов (правда, надо оговориться – большого размера) существуют закономерности. Их описывает теория вероятности. Их нахождение – задача не из легких, но в принципе по-моему разрешимая. Во всяком случае замеряемая мною на реальных несжимаемых файлах статистика находится в полном соответствии с теорией вероятности - и мне это очень нравится…

Ответы:



Ответить на это сообщение

Тема:

Имя (желательно полное):

E-Mail:

URL:

Город:

Страна:

Вежливый и подробный комментарий:
(Форматируйте его, пожалуйста, как почту - короткими строками
Еnter в конце строки, пустая строка между параграфами).

Пожалуйста, заполните все поля.
И не нажимайте по два раза на кнопку! Дождитесь ответа сервера.