Re: Вопрос по контекстному моделированию


Сайт о сжатии >> Форум #Компрессор# >> [Ответить] [Ответы]

Автор: Maxim Smirnov, <ms@compression.ru>
SPb, 17 апреля 2003 года в 17:57:19

В ответ на : Re: Вопрос по контекстному моделированию от FAL в 16 апреля 2003 года в 19:51:37:


> > Вот-вот. А что такое здесь
> > "контекст" ? :-|

> Ну... например, контекс фиксированной длины - попросту N предыдущих элементов...

Как именно он будет подаваться в ИНС?
(мы помним, что тот же перцептрон при
распознавании тех же букв работает
хорошо отнюдь не от того, что на
него втупую подаются состояния
всех n*n точек)


> > И чем это отличается от пулемета,
> > тьфу, статического ППМа?

> Просто другим представлением данных? Почему-то есть ощущение, что структура нейросети более органична и правильна (красива), нежели наборы контекстных моделей в ppm.


В компьютерной лингвистике есть
много очень красивых и эстетически
привлекательных моделей языка. Но
реально работают хуже ППМ :-)


> > bzip2 и rar вполне себе прилично
> > кушают :-)

> Насчет рара не скажу. Однако, bzip2 использует bwt, в котором нужен блок размером с сообщение при построении матрицы перестановок, что никак не 16 мегабайт :) Хоть и всякие MTF и Хаффманы требуют места, но все же, имхо, куда меньше чем нужно для ppm или ANN.

bzip потребляет что-то около 6 байтов
на каждый байт блока (могу наврать).
Сортировка при расходах меньше 4 байтов
на байт сильно затруднена.


> > Если мы не режем связи, слои,
> > нейроны и не меняем функцию/пороги
> > активации и проч., то оно конечно
> > так :-)

> А в эффективности и в качестве сжатия тогда теряем или не обязательно?

Мнится мне, что да.

Ответы:



Ответить на это сообщение

Тема:

Имя (желательно полное):

E-Mail:

URL:

Город:

Страна:

Вежливый и подробный комментарий:
(Форматируйте его, пожалуйста, как почту - короткими строками
Еnter в конце строки, пустая строка между параграфами).

Пожалуйста, заполните все поля.
И не нажимайте по два раза на кнопку! Дождитесь ответа сервера.