Приветствую всех.
> Раз уж человек решил разрабатывать свой речевой сервер (а не добавить в
> speech-dispatcher поддержку разбора текста на русский/английский)
>- значит это зачем-то надо?..
Просто по мере обсуждения разговор дошел до архитектуры, которую в той или иной
степени реализует Speech-Dispatcher, то есть сервер + модули (в исходном коде)
для работы со звуковыми подсистемами + модули (в бинарном виде, хотя не .so)
для работы с конкретными синтезаторами .
> О каком множении сущьностей вы говорите?
У меня получается пять речевых серверов на два русских голоса.
На мой взгляд, если сейчас начать переделывать VoiceMan под интерфейсы для
динамических библиотек (so-proxy), которые будут посредниками между сервером и
синтезаторами (которые, в свою очередь, все равно придется запускать как
процессы), то времени на это уйдет много, а функциональные возможности (в
сравнении с нынешними и в сравнении со Speech-Dispatcher) возрастут
незначительно.
Все упрется как раз в необходимость переписывать синтезаторы, чтобы реализовать
их как .so, а кто этим будет заниматься?
В результате, через какое-то количество человеко-часов, на выходе:
переделанный VoiceMan плюс один so-proxy для eSpeak и один so-proxy для работы
со всеми остальными синтезаторами, запускаемыми командной строкой как отдельные
процессы. То есть с точки зрения возможностей озвучивания -- ситуация будет
равна нынешней.
Если бы ru_tts был бы .so, то, возможно, и был бы смысл затевать реконструкцию
VoiceMan.
К тому же, устойчивость сервера, подгружающего в свое адресное пространство, по
большому счету, чужие бинарники, остается открытым.
Успехов. Анатолий.
--
Blinux-rus mailing list
[email protected]
http://www.a11ywiki.org/cgi-bin/mailman/listinfo/blinux-rus