Приветствую всех.

> Раз уж человек решил разрабатывать свой речевой сервер (а не добавить в 
> speech-dispatcher поддержку разбора текста на русский/английский) 
>- значит это зачем-то надо?..

Просто по мере обсуждения разговор дошел до архитектуры, которую в той или иной 
степени реализует Speech-Dispatcher, то есть сервер + модули (в исходном коде) 
для работы со звуковыми подсистемами + модули (в бинарном виде, хотя не .so) 
для работы с конкретными синтезаторами .

> О каком множении сущьностей вы говорите? 

У меня получается пять речевых серверов на два русских голоса.
На мой взгляд, если сейчас начать переделывать VoiceMan под интерфейсы для 
динамических библиотек (so-proxy), которые будут посредниками между сервером и 
синтезаторами (которые, в свою очередь, все равно придется запускать как 
процессы), то времени на это уйдет много, а функциональные возможности (в 
сравнении с нынешними и в сравнении со Speech-Dispatcher) возрастут 
незначительно.
Все упрется как раз в необходимость переписывать синтезаторы, чтобы реализовать 
их как .so, а кто этим будет заниматься?
В  результате, через какое-то количество человеко-часов, на выходе: 
переделанный VoiceMan плюс один so-proxy для eSpeak и один so-proxy для работы 
со всеми остальными синтезаторами, запускаемыми командной строкой как отдельные 
процессы. То есть с точки зрения возможностей озвучивания -- ситуация будет 
равна нынешней.
Если бы ru_tts был бы .so, то, возможно, и был бы смысл затевать реконструкцию 
VoiceMan. 
К тому же, устойчивость сервера, подгружающего в свое адресное пространство, по 
большому счету, чужие бинарники, остается открытым.

    Успехов. Анатолий.

-- 
Blinux-rus mailing list
[email protected]
http://www.a11ywiki.org/cgi-bin/mailman/listinfo/blinux-rus

Ответить