Ok,
I will try it,
but this does not introduce a bias, as the de-tokenizer has a few rules?

There is no way to do incremental train of an existing model, or just add a dictionary of abbreviations to an existing model?

Joan

On 10/04/12 16:51, Jörn Kottmann wrote:
On 04/10/2012 04:44 PM, Joan Codina wrote:
But to train the system I only found that file... which is small.
http://opennlp.cvs.sourceforge.net/viewvc/opennlp/opennlp/src/test/resources/opennlp/tools/tokenize/token.train?view=markup which only contains 121 sentences. i don't know if this is enough or there are other training annotated models

No, that is not enough. Get some training data set for the language you need. Most of the data sets referenced in the Corpora section can be used to train the tokenizer. These corpora are already tokenized
and can be de-tokenized into training data for the tokenizer.

Jörn

--

Joan Codina Filbà
Departament de Tecnologia
Universitat Pompeu Fabra
_______________________________________________________________________________

Abans d'imprimir aquest e-mail, pensa si realment és necessari, i en cas de que ho sigui, pensa que si ho fas a doble cara estalvies un 25% del paper, els arbres t'ho agrairan. _______________________________________________________________________________

/La informació d'aquest missatge electrònic és confidencial, personal i intransferible i només està dirigida a la/les adreça/ces indicades a dalt. Si vostè llegeix aquest missatge per equivocació, l'informem que queda prohibida la seva divulgació, ús o distribució, completa o en part, i li preguem esborri el missatge original juntament amb els seus fitxers annexos sense llegir-lo ni gravar-lo./

/Gràcies./

Reply via email to