O R tem a mania de manter os objetos completamente na memória. Isso
simplifica o código e agiliza as operações (depois dos dados terem sido
lidos ao menos uma vez), mas por outro lado torna as operações com dados
grandes propensas a estourar a memória. (Já ouvi dizer que é mais barato
comprar RAM
Walmes fiz algumas pequenas alterações no código que me enviou para
conseguir obter uma saída para o modelo lme. Desculpe ficar perguntando,
mas não conheco bem essa técnica.
A questão é: Baseada na saída abaixo, como eu a torno interpretável? Faço
a média desses valores? Estou pensado em como
Se você tem muitos objetos na memória mas nao o utiliza simultaneamente
recomendo fortemente ver o pacote SOAR.
Em 2 de junho de 2015 15:02, Leonardo Ferreira Fontenelle
leonar...@leonardof.med.br escreveu:
O R tem a mania de manter os objetos completamente na memória. Isso
simplifica o
Da uma olhada nesse post, que fiz a algum tempo, tem umas sugestões de
leitura.
http://r-br.2285057.n4.nabble.com/R-br-Duvida-em-estatistica-espacial-Kernel-em-duas-dimensoes-levando-em-conta-prevalencias-td4663904.html#a4663908
Aqui nesse link aqui:
http://www.leg.ufpr.br/geoR/
Da uma olhada
A seguinte página deve lhe apresentar as ferramentas disponíveis:
http://cran.r-project.org/web/views/HighPerformanceComputing.html
Pelo que você está dizendo, parece que você já consegue carregar todos
os dados na memória, o problema é o tempo de processamento. Talvez valha
a pena começar
Ei Leonardo,
Duas dicas boas em que eu não tinha pensado. De fato eu já consigo carregar
os dados, mas eu gostaria mesmo é de não ficar esperando 10 segundos pra
fazer uma tabela. Assim uma edição em que eu preciso olhar varias tabelas
pra verificar se o que eu estou fazendo está como esperado,