[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui no fórum com experiência em linux, que pode ajudar também []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu Bom dia Colegas, Seguinte, tenho uma duvida... Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ? Estou trabalhando com RaiseFS... E neste caso, quando crio uma tablespace Bigfile...chegando aos 2TB...levando em consideracao que ela e a tablespaces padrao do usuario e que nao consegue mais ser extendida...posso criar outra do mesmo tipo e alternar para ser a nova default do usuario sem problemas ? Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 TB...mas estou com esta limitacao no SO
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchia...@... escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui no fórum com experiência em linux, que pode ajudar também []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Bom dia Colegas, Seguinte, tenho uma duvida... Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ? Estou trabalhando com RaiseFS... E neste caso, quando crio uma tablespace Bigfile...chegando aos 2TB...levando em consideracao que ela e a tablespaces padrao do usuario e que nao consegue mais ser extendida...posso criar outra do mesmo tipo e alternar para ser a nova default do usuario sem problemas ? Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 TB...mas estou com esta limitacao no SO
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando blocos em cada datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle vai alocando os blocos livres no datafile1, quando ele enche ele CONTINUA a alocar blocos no datafile 2, até alcançar os 2 Gb que vc precisava ? []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui no fórum com experiência em linux, que pode ajudar também []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Bom dia Colegas, Seguinte, tenho uma duvida... Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ? Estou trabalhando com RaiseFS... E neste caso, quando crio uma tablespace Bigfile...chegando aos 2TB...levando em consideracao que ela e a tablespaces padrao do usuario e que nao consegue mais ser extendida...posso criar outra do mesmo tipo e alternar para ser a nova default do usuario sem problemas ? Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 TB...mas estou com esta limitacao no SO
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
S.O: RedHat Enterprise Linux 5.2 Kernel : 2.6.18-92.el5 - EDT 2008 x86_64 x86_64 x86_64 GNU/Linux Filesystem: ReiserFS /dev/sdb1 on /u03 type reiserfs (rw) /dev/sdb2 on /u02_1 type reiserfs (rw) /dev/sdb3 on /u02_2 type reiserfs (rw) Alguma sugestão ? --- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui no fórum com experiência em linux, que pode ajudar também []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Bom dia Colegas, Seguinte, tenho uma duvida... Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ? Estou trabalhando com RaiseFS... E neste caso, quando crio uma tablespace Bigfile...chegando aos 2TB...levando em consideracao que ela e a tablespaces padrao do usuario e que nao consegue mais ser extendida...posso criar outra do mesmo tipo e alternar para ser a nova default do usuario sem problemas ? Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 TB...mas estou com esta limitacao no SO
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
mais info necessária : qual é a Versão do raiserfs, 3 ou 4 ? release/patch level dele ? Blocksize ? COMO, com qual partition schema, foram particionados esses discos, será que não usado o schema de particionamento com limites inferiores ? Qual a tecnologia deles , são discos SCSI num storage ? Opções usadas nesses FSs ? Eventuais patches ? []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu S.O: RedHat Enterprise Linux 5.2 Kernel : 2.6.18-92.el5 - EDT 2008 x86_64 x86_64 x86_64 GNU/Linux Filesystem: ReiserFS /dev/sdb1 on /u03 type reiserfs (rw) /dev/sdb2 on /u02_1 type reiserfs (rw) /dev/sdb3 on /u02_2 type reiserfs (rw) Alguma sugestão ? --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui no fórum com experiência em linux, que pode ajudar também []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Bom dia Colegas, Seguinte, tenho uma duvida... Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ? Estou trabalhando com RaiseFS... E neste caso, quando crio uma tablespace Bigfile...chegando aos 2TB...levando em consideracao que ela e a tablespaces padrao do usuario e que nao consegue mais ser extendida...posso criar outra do mesmo tipo e alternar para ser a nova default do usuario sem problemas ? Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 TB...mas estou com esta limitacao no SO
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
Então Chiappa...seguinte.. O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao longo dos proximos 3 anos, totalizando uns 20 TB de Binarios.. Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 4 TB e depois, ir aumentando aos poucos Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando a autoextend on em um datafile (trabalhando com tamanho de bloco padrão)...para chegar aos 1 TB para cada arquivo...seria necessario alterrar o tamanho do bloco...certo ou estõu viajando ? --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchia...@... escreveu Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando blocos em cada datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle vai alocando os blocos livres no datafile1, quando ele enche ele CONTINUA a alocar blocos no datafile 2, até alcançar os 2 Gb que vc precisava ? []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui no fórum com experiência em linux, que pode ajudar também []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Bom dia Colegas, Seguinte, tenho uma duvida... Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ? Estou trabalhando com RaiseFS... E neste caso, quando crio uma tablespace Bigfile...chegando aos 2TB...levando em consideracao que ela e a tablespaces padrao do usuario e que nao consegue mais ser extendida...posso criar outra do mesmo tipo e alternar para ser a nova default do usuario sem problemas ? Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 TB...mas estou com esta limitacao no SO
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
Sim : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no cap. Physical Database Limits ele diz (pensando em smallfiles) : A smallfile tablespace is a traditional Oracle tablespace, which can contain 1022 datafiles or tempfiles, each of which can contain up to approximately 4 million (2^22) blocks. Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a tablespace pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 bytes, ou seja, algumas dezenas de Tb, vc diz que deve levar coisa de 20 Gb, estaria dentro... E isso, claro, sem considerar que ** LOGICAMENTE ** quando se fala num volume imenso do tipo, OBRIGATORIAMENTE vc vai ter PARTICIONAMENTO aí na parada (por dia/por mês/por ano, o que for, não tem graça varrer uma pancada assim de dados históricos a cada acesso), aí Naturalmente vc terá uma tablespace por cada partição, os limites se ampliam ainda mais aí... []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu Então Chiappa...seguinte.. O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao longo dos proximos 3 anos, totalizando uns 20 TB de Binarios.. Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 4 TB e depois, ir aumentando aos poucos Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando a autoextend on em um datafile (trabalhando com tamanho de bloco padrão)...para chegar aos 1 TB para cada arquivo...seria necessario alterrar o tamanho do bloco...certo ou estõu viajando ? --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando blocos em cada datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle vai alocando os blocos livres no datafile1, quando ele enche ele CONTINUA a alocar blocos no datafile 2, até alcançar os 2 Gb que vc precisava ? []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui no fórum com experiência em linux, que pode ajudar também []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Bom dia Colegas,
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
Ops, erro de digitação, onde eu falei coisa de 20 Gbentenda-se coisa de 20 Tb, claro... []s Chiappa --- Em oracle_br@yahoogrupos.com.br, jlchiappa jlchia...@... escreveu Sim : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no cap. Physical Database Limits ele diz (pensando em smallfiles) : A smallfile tablespace is a traditional Oracle tablespace, which can contain 1022 datafiles or tempfiles, each of which can contain up to approximately 4 million (2^22) blocks. Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a tablespace pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 bytes, ou seja, algumas dezenas de Tb, vc diz que deve levar coisa de 20 Gb, estaria dentro... E isso, claro, sem considerar que ** LOGICAMENTE ** quando se fala num volume imenso do tipo, OBRIGATORIAMENTE vc vai ter PARTICIONAMENTO aí na parada (por dia/por mês/por ano, o que for, não tem graça varrer uma pancada assim de dados históricos a cada acesso), aí Naturalmente vc terá uma tablespace por cada partição, os limites se ampliam ainda mais aí... []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Então Chiappa...seguinte.. O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao longo dos proximos 3 anos, totalizando uns 20 TB de Binarios.. Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 4 TB e depois, ir aumentando aos poucos Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando a autoextend on em um datafile (trabalhando com tamanho de bloco padrão)...para chegar aos 1 TB para cada arquivo...seria necessario alterrar o tamanho do bloco...certo ou estõu viajando ? --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando blocos em cada datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle vai alocando os blocos livres no datafile1, quando ele enche ele CONTINUA a alocar blocos no datafile 2, até alcançar os 2 Gb que vc precisava ? []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
entendi... Mas esta é agrande questão...se cada arquivo de dados (para tamanho padrao de bloco)eu consigo chegar a 34 GB, precisarei criar N arquivos de dados para suportar a massa da migração + todos os novos arquivos...terei mais de 200 (por baixo). É..é so uma questão de administração né... Mas pode ser uma solução... Pensei em falar ate com meu pessoal de SO, para aumentar o tamando o tamanho do bloco...assim consigo chegar a valores maiores um pouco... Mas vlw Chiappa...clareou as ideias...rs --- Em oracle_br@yahoogrupos.com.br, jlchiappa jlchia...@... escreveu Sim : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no cap. Physical Database Limits ele diz (pensando em smallfiles) : A smallfile tablespace is a traditional Oracle tablespace, which can contain 1022 datafiles or tempfiles, each of which can contain up to approximately 4 million (2^22) blocks. Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a tablespace pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 bytes, ou seja, algumas dezenas de Tb, vc diz que deve levar coisa de 20 Gb, estaria dentro... E isso, claro, sem considerar que ** LOGICAMENTE ** quando se fala num volume imenso do tipo, OBRIGATORIAMENTE vc vai ter PARTICIONAMENTO aí na parada (por dia/por mês/por ano, o que for, não tem graça varrer uma pancada assim de dados históricos a cada acesso), aí Naturalmente vc terá uma tablespace por cada partição, os limites se ampliam ainda mais aí... []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Então Chiappa...seguinte.. O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao longo dos proximos 3 anos, totalizando uns 20 TB de Binarios.. Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 4 TB e depois, ir aumentando aos poucos Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando a autoextend on em um datafile (trabalhando com tamanho de bloco padrão)...para chegar aos 1 TB para cada arquivo...seria necessario alterrar o tamanho do bloco...certo ou estõu viajando ? --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando blocos em cada datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle vai alocando os blocos livres no datafile1, quando ele enche ele CONTINUA a alocar blocos no datafile 2, até alcançar os 2 Gb que vc precisava ? []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Mas Chiappa, me tira uma dúvida... Neste caso específico..este servidor é para armazenar documentos scaneados / gravação de voz (telefonia e etc...)... Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste problema :-( --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em ter um único super-gigante fs do que vários , já que entre outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado single até o fim... Anyway, há várias possibilidades : por exemplo, cfrme http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc pode estar usando um esquema de particionamento do disco sujeito a limites, ou talvez vc esteja com um bloco muito pequeno (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de block size no ext3, mas com certeza eles devem existir similar no raiser), ou então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus discos, dá pra
[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES
Sim, se por qquer motivo/limitação do seu SO, hardware ou o que for vc não consegui/não puder usar um bigfile do tamanhão que vc quer, certamente vc terá que ir pros small files, e sim, vai ter que criar um monte, mas eu NÃO vejo trabalho algum, dificuldade alguma, é só entrar no sqlplus e fazer uma query tipo : select 'CREATE TABLESPACE MINHA_TS DATAFILE ' from dual UNION SELECT 'datafile X:\MINHA_TS_ARQ' || to_char(rownum, 'FM0009') || ',' FROM DBA_TAB_COLUMNS WHERE ROWNUM 100; que vc já obtém o script prontinho, só executar, sem prob ALGUM, certo ? Ou se não gostar dessa, escreve um bloco PL/SQL que cria com EXEC IMEMDIATE, ou gera o script numa planilha Excel... O fato é que Absolutamente não é desculpa o número de arqs a criar, não há (nem pode haver) dificuldade nenhuma nisso, é trampo pra 5 MINUTOS SE MUITO... Também não vejo razão nem técnica nem administrativa pra vc preferir ter 100 ao invés de 200 ou ao invés de 500 ou sejam quantos datafiles forem - via de regra o funcionamento do banco é O MESMO tenha vc 'poucos' ou 'muitos' datafiles, as questões administrativas (como backup) absolutamente NÃO são dificultadas em vc ter 'muitos' datafiles (já que Lógico vc vai gerar Scripts pra isso também) ... A preocupaçãoadministrativa maior sua a planejar um bd de alto volume deve ser muito mais com a hora de Manipular o arquivo - por exemplo, via de regra é muito mais rápido vc fazer recover em paralelo de 5 arqs de 100 Gb do que um de 500 Gb, coisas assim, mas na Operação normal do dia-a-dia, prob algum... []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu entendi... Mas esta é agrande questão...se cada arquivo de dados (para tamanho padrao de bloco)eu consigo chegar a 34 GB, precisarei criar N arquivos de dados para suportar a massa da migração + todos os novos arquivos...terei mais de 200 (por baixo). É..é so uma questão de administração né... Mas pode ser uma solução... Pensei em falar ate com meu pessoal de SO, para aumentar o tamando o tamanho do bloco...assim consigo chegar a valores maiores um pouco... Mas vlw Chiappa...clareou as ideias...rs --- Em oracle_br@yahoogrupos.com.br, jlchiappa jlchiappa@ escreveu Sim : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no cap. Physical Database Limits ele diz (pensando em smallfiles) : A smallfile tablespace is a traditional Oracle tablespace, which can contain 1022 datafiles or tempfiles, each of which can contain up to approximately 4 million (2^22) blocks. Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a tablespace pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 bytes, ou seja, algumas dezenas de Tb, vc diz que deve levar coisa de 20 Gb, estaria dentro... E isso, claro, sem considerar que ** LOGICAMENTE ** quando se fala num volume imenso do tipo, OBRIGATORIAMENTE vc vai ter PARTICIONAMENTO aí na parada (por dia/por mês/por ano, o que for, não tem graça varrer uma pancada assim de dados históricos a cada acesso), aí Naturalmente vc terá uma tablespace por cada partição, os limites se ampliam ainda mais aí... []s Chiappa --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu Então Chiappa...seguinte.. O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao longo dos proximos 3 anos, totalizando uns 20 TB de Binarios.. Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 4 TB e depois, ir aumentando aos poucos Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando a autoextend on em um datafile (trabalhando com tamanho de bloco padrão)...para chegar aos 1 TB para cada arquivo...seria necessario alterrar o tamanho do bloco...certo ou estõu viajando ? --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando blocos em cada datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle vai alocando os blocos livres no datafile1, quando ele enche ele CONTINUA a alocar blocos no