Re2: Сжатие статических изображений. Каковы перспективы.


Сайт о сжатии >> Форум #Компрессор# >> [Ответить] [Ответы]

Автор: Владимир (ImageCoder), <imagecoder@rambler.ru>
26 января 2004 года в 13:15:41

В ответ на : Re: Сжатие статических изображений. Каковы перспективы. от minorlogic в 22 января 2004 года в 17:07:46:


Уважаемый МинорЛогик!
Спасибо огромное за ваш ответ.

Из сказанного вами я могу сделать следующие выводы.
(Заранее извините за нестрогость и нематематичность утверждений (серьезные пробелы в знаниях-с))

Первое.
Первое направление исследований
(использование векторной, объектной модели изображения)
является действительно Серьезным Направлением Исследований (СНИ),
простите за тавтологию.
И заниматься ею можно только большим
(или сильным, или лучше умным)коллективом опытных ученых.
Здесь (вернее особенно здесь)
нужны серьезные теоретические знания,
тщательный анализ и т.д.
Возможно поключение старых добрых теорий распознавания образов, контурного анализа и т.д.
А также например немного забытые нейронные сети, поскольку обычными процедурными, алгоритмическими методами по настоящему хорошо выделять объекты все же очень трудно.
Хотя говорят, что нейронную сеть можно заменить системой уравнений, но решенее уравнений пока еще тоже представляют свои трудности.
В общем, самому (или небольшой группой) это все ну никак не одолеть.

А вот вторая группа мне не только ближе, это мне просто по душе.
И я частично разделяю Ваши мысли.

Например я также не очень положительно отношусь к фрактальному сжатию, поскольку даже исходное предположение о подобии участков изображения не на чем не опирается.

И хотя о перечисляемых Вами
- Мультивейвлеты
- Настраиваемые цветовые пространства
- Настраиваемые квантизаторы
- Всякие настраиваемые вейвлеты
я имею только обобщенное представление,
но смею предположить, что применение всех их (вернее каждого из них) приводит, во-первых, к увеличению времени работы реализаций алгоритма,
а во-вторых, к усложнению алгоритма и утрачиванию им строгости и лаконичности.
Все гениальное просто
Дело в том, что недавно я

Насчет хороших наработок по узорам, запоминанием патернов, то это также мало математично, нет никакой уверенности, что в каком-либо кодируемом изображении будет присутствовать хоть один из имеющихся узоров.
И тогда алгоритм будет крайне неэффективным, что непозволительно.
В чем-то этот метод схож с фракталами.

И вообще в кодировании изображений
(и статики, и видео) главная проблема (на мой взгляд) состоит в практической невозможности очертить границы классов изображений (т.е. модели источника или модели исходных данных).
Мы например говорим о фотореалистичных изображениях, но где грань этого множества никто точно сказать не может.

Именно поэтому главной особенностью каждого хорошего алгоритма кодироания изображений должно стать свойство адаптивности, т.е. приспосабливаемости и учета свойств не целого класса, а конкретного изображения.
А вот как выявлять и как эффективно использовать при кодировании свойства исходного или уже преобразованного изображения это конечно вопрос.
И к решению его я и хотел бы придвинуться...


Хочется написать о многом, но лучше понемногу, а то форум еще не примет сообщение.

Хотелось бы не прерывать эту тему,
и услышать более детальные мнения по этому вопросу как Вас, дорогой МинорЛогик, так и других посетителей.
Пожалуйста, не стесняйтесь.
Будет интересно.

Ответы:



Ответить на это сообщение

Тема:

Имя (желательно полное):

E-Mail:

URL:

Город:

Страна:

Вежливый и подробный комментарий:
(Форматируйте его, пожалуйста, как почту - короткими строками
Еnter в конце строки, пустая строка между параграфами).

Пожалуйста, заполните все поля.
И не нажимайте по два раза на кнопку! Дождитесь ответа сервера.