[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico José Laurindo
Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em 
ter um único super-gigante fs do que vários , já que entre outras coisas, se vc 
tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de fs 
(por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode disparar 
várias operações em paralelo em tese, enquanto com um só fs não tem jeito, é 
esse cara que vai ser lido/acessado single até o fim...
 Anyway, há várias possibilidades : por exemplo, cfrme 
http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , vc 
pode estar usando um esquema de particionamento do disco sujeito a limites, ou 
talvez vc esteja com um bloco muito pequeno 
(http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de 
block size no ext3, mas com certeza eles devem existir similar no raiser), ou 
então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... 
Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus 
discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, 
do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções que 
foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do binário do 
fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente pode tentar 
palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente 
tenta dizer algo, e também existe muita gente aqui no fórum com experiência em 
linux, que pode ajudar também

 []s

  Chiappa

--- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu

 Bom dia Colegas,
 
 Seguinte, tenho uma duvida...
 
 Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe 
 uma limitacao de 2 TB para criacao de arquivos de Red Hat ?
 Estou trabalhando com RaiseFS...
 
 E neste caso, quando crio uma tablespace Bigfile...chegando aos  
 2TB...levando em consideracao que ela e a tablespaces padrao do usuario e que 
 nao consegue mais ser extendida...posso criar outra do mesmo tipo e alternar 
 para ser a nova default do usuario sem problemas ?
 
 Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 
 TB...mas estou com esta limitacao no SO





[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico candiurudba
Mas Chiappa, me tira uma dúvida...

Neste caso específico..este servidor é para armazenar documentos scaneados / 
gravação de voz (telefonia e etc...)...

Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma migração 
do sql server que ja tem 4 TB para o Oracle...e estou esbarrando neste 
problema :-(



--- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchia...@... escreveu

 Bom, confesso que nunca vi lá muito sentido (administrativamente falando) em 
 ter um único super-gigante fs do que vários , já que entre outras coisas, se 
 vc tiver vários fs quando vc tiver que fazer alguma manutenção/verificação de 
 fs (por exemplo, um check, ou um backup a nível de fs, sei lá) vc pode 
 disparar várias operações em paralelo em tese, enquanto com um só fs não tem 
 jeito, é esse cara que vai ser lido/acessado single até o fim...
  Anyway, há várias possibilidades : por exemplo, cfrme 
 http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , 
 vc pode estar usando um esquema de particionamento do disco sujeito a 
 limites, ou talvez vc esteja com um bloco muito pequeno 
 (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de 
 block size no ext3, mas com certeza eles devem existir similar no raiser), ou 
 então talvez simplesmente vc esteja com um kernel/versão do raiser antigos... 
 Então, levanta ** EXATAMENTE ** como foi feito o particionamento dos seus 
 discos, dá pra gente os DETALHES PRECISOS do hardware (discos, controladoras, 
 do server), os detalhes do fs (blocksize, journaling, enfim TODAS as opções 
 que foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do 
 binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a gente 
 pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí 
 que a gente tenta dizer algo, e também existe muita gente aqui no fórum com 
 experiência em linux, que pode ajudar também
 
  []s
 
   Chiappa
 
 --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
 
  Bom dia Colegas,
  
  Seguinte, tenho uma duvida...
  
  Perguntei a meu pessoal de SO e eles nao souberam me informar...mas existwe 
  uma limitacao de 2 TB para criacao de arquivos de Red Hat ?
  Estou trabalhando com RaiseFS...
  
  E neste caso, quando crio uma tablespace Bigfile...chegando aos  
  2TB...levando em consideracao que ela e a tablespaces padrao do usuario e 
  que nao consegue mais ser extendida...posso criar outra do mesmo tipo e 
  alternar para ser a nova default do usuario sem problemas ?
  
  Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 
  TB...mas estou com esta limitacao no SO
 





[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico José Laurindo
Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB para 
o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a guardar no 
banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE vc quer ter 
um único datafiles bigfile de não sei quantos Tb, ao invés de n datafiles 
nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc vai 
armazenar os documentos dentro do banco em LOBs, aí vc entende que o banco 
Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando blocos em 
cada datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 2 
Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle vai 
alocando os blocos livres no datafile1, quando ele enche ele CONTINUA a alocar 
blocos no datafile 2, até alcançar os 2 Gb que vc precisava ?

 []s

  Chiappa

--- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu

 Mas Chiappa, me tira uma dúvida...
 
 Neste caso específico..este servidor é para armazenar documentos scaneados / 
 gravação de voz (telefonia e etc...)...
 
 Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma 
 migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando 
 neste problema :-(
 
 
 
 --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
 
  Bom, confesso que nunca vi lá muito sentido (administrativamente falando) 
  em ter um único super-gigante fs do que vários , já que entre outras 
  coisas, se vc tiver vários fs quando vc tiver que fazer alguma 
  manutenção/verificação de fs (por exemplo, um check, ou um backup a nível 
  de fs, sei lá) vc pode disparar várias operações em paralelo em tese, 
  enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado 
  single até o fim...
   Anyway, há várias possibilidades : por exemplo, cfrme 
  http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , 
  vc pode estar usando um esquema de particionamento do disco sujeito a 
  limites, ou talvez vc esteja com um bloco muito pequeno 
  (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de 
  block size no ext3, mas com certeza eles devem existir similar no raiser), 
  ou então talvez simplesmente vc esteja com um kernel/versão do raiser 
  antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento 
  dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, 
  controladoras, do server), os detalhes do fs (blocksize, journaling, enfim 
  TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do 
  kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí 
  sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, 
  mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui 
  no fórum com experiência em linux, que pode ajudar também
  
   []s
  
Chiappa
  
  --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
  
   Bom dia Colegas,
   
   Seguinte, tenho uma duvida...
   
   Perguntei a meu pessoal de SO e eles nao souberam me informar...mas 
   existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ?
   Estou trabalhando com RaiseFS...
   
   E neste caso, quando crio uma tablespace Bigfile...chegando aos  
   2TB...levando em consideracao que ela e a tablespaces padrao do usuario e 
   que nao consegue mais ser extendida...posso criar outra do mesmo tipo e 
   alternar para ser a nova default do usuario sem problemas ?
   
   Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 
   TB...mas estou com esta limitacao no SO
  
 





[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico candiurudba
S.O:  RedHat Enterprise Linux 5.2

Kernel :  2.6.18-92.el5 - EDT 2008 x86_64 x86_64 x86_64 GNU/Linux

Filesystem:  ReiserFS
/dev/sdb1 on /u03 type reiserfs (rw)
/dev/sdb2 on /u02_1 type reiserfs (rw)
/dev/sdb3 on /u02_2 type reiserfs (rw)


Alguma sugestão ?

--- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu

 Mas Chiappa, me tira uma dúvida...
 
 Neste caso específico..este servidor é para armazenar documentos scaneados / 
 gravação de voz (telefonia e etc...)...
 
 Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma 
 migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando 
 neste problema :-(
 
 
 
 --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
 
  Bom, confesso que nunca vi lá muito sentido (administrativamente falando) 
  em ter um único super-gigante fs do que vários , já que entre outras 
  coisas, se vc tiver vários fs quando vc tiver que fazer alguma 
  manutenção/verificação de fs (por exemplo, um check, ou um backup a nível 
  de fs, sei lá) vc pode disparar várias operações em paralelo em tese, 
  enquanto com um só fs não tem jeito, é esse cara que vai ser lido/acessado 
  single até o fim...
   Anyway, há várias possibilidades : por exemplo, cfrme 
  http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 , 
  vc pode estar usando um esquema de particionamento do disco sujeito a 
  limites, ou talvez vc esteja com um bloco muito pequeno 
  (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes de 
  block size no ext3, mas com certeza eles devem existir similar no raiser), 
  ou então talvez simplesmente vc esteja com um kernel/versão do raiser 
  antigos... Então, levanta ** EXATAMENTE ** como foi feito o particionamento 
  dos seus discos, dá pra gente os DETALHES PRECISOS do hardware (discos, 
  controladoras, do server), os detalhes do fs (blocksize, journaling, enfim 
  TODAS as opções que foram usadas),E (o mais crítico) as versões PRECISAS do 
  kernel, do binário do fs , do SO (incluindo os PATCHES aplicados), que aí 
  sim a gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, 
  mas manda aí que a gente tenta dizer algo, e também existe muita gente aqui 
  no fórum com experiência em linux, que pode ajudar também
  
   []s
  
Chiappa
  
  --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
  
   Bom dia Colegas,
   
   Seguinte, tenho uma duvida...
   
   Perguntei a meu pessoal de SO e eles nao souberam me informar...mas 
   existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ?
   Estou trabalhando com RaiseFS...
   
   E neste caso, quando crio uma tablespace Bigfile...chegando aos  
   2TB...levando em consideracao que ela e a tablespaces padrao do usuario e 
   que nao consegue mais ser extendida...posso criar outra do mesmo tipo e 
   alternar para ser a nova default do usuario sem problemas ?
   
   Lembrando que o padrao era que esta tablespace pudesse crescer mais que 2 
   TB...mas estou com esta limitacao no SO
  
 





[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico José Laurindo
mais info necessária : qual é a Versão do raiserfs, 3 ou 4 ? release/patch 
level dele ? Blocksize ? COMO, com qual partition schema, foram particionados 
esses discos, será que não usado o schema de particionamento com limites 
inferiores ? Qual a tecnologia deles , são discos SCSI num storage ? Opções 
usadas nesses FSs ? Eventuais patches ?

 []s

   Chiappa

--- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu

 S.O:  RedHat Enterprise Linux 5.2
 
 Kernel :  2.6.18-92.el5 - EDT 2008 x86_64 x86_64 x86_64 GNU/Linux
 
 Filesystem:  ReiserFS
 /dev/sdb1 on /u03 type reiserfs (rw)
 /dev/sdb2 on /u02_1 type reiserfs (rw)
 /dev/sdb3 on /u02_2 type reiserfs (rw)
 
 
 Alguma sugestão ?
 
 --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
 
  Mas Chiappa, me tira uma dúvida...
  
  Neste caso específico..este servidor é para armazenar documentos scaneados 
  / gravação de voz (telefonia e etc...)...
  
  Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma 
  migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando 
  neste problema :-(
  
  
  
  --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
  
   Bom, confesso que nunca vi lá muito sentido (administrativamente falando) 
   em ter um único super-gigante fs do que vários , já que entre outras 
   coisas, se vc tiver vários fs quando vc tiver que fazer alguma 
   manutenção/verificação de fs (por exemplo, um check, ou um backup a nível 
   de fs, sei lá) vc pode disparar várias operações em paralelo em tese, 
   enquanto com um só fs não tem jeito, é esse cara que vai ser 
   lido/acessado single até o fim...
Anyway, há várias possibilidades : por exemplo, cfrme 
   http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 
   , vc pode estar usando um esquema de particionamento do disco sujeito a 
   limites, ou talvez vc esteja com um bloco muito pequeno 
   (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes 
   de block size no ext3, mas com certeza eles devem existir similar no 
   raiser), ou então talvez simplesmente vc esteja com um kernel/versão do 
   raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o 
   particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do 
   hardware (discos, controladoras, do server), os detalhes do fs 
   (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais 
   crítico) as versões PRECISAS do kernel, do binário do fs , do SO 
   (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar 
   : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta 
   dizer algo, e também existe muita gente aqui no fórum com experiência em 
   linux, que pode ajudar também
   
[]s
   
 Chiappa
   
   --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
   
Bom dia Colegas,

Seguinte, tenho uma duvida...

Perguntei a meu pessoal de SO e eles nao souberam me informar...mas 
existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ?
Estou trabalhando com RaiseFS...

E neste caso, quando crio uma tablespace Bigfile...chegando aos  
2TB...levando em consideracao que ela e a tablespaces padrao do usuario 
e que nao consegue mais ser extendida...posso criar outra do mesmo tipo 
e alternar para ser a nova default do usuario sem problemas ?

Lembrando que o padrao era que esta tablespace pudesse crescer mais que 
2 TB...mas estou com esta limitacao no SO
   
  
 





[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico candiurudba
Então Chiappa...seguinte..

O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o Oracle 
onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao longo dos 
proximos 3 anos, totalizando uns 20 TB de Binarios..

Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 4 
TB e depois, ir aumentando aos poucos

Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando a 
autoextend on em um datafile (trabalhando com tamanho de bloco padrão)...para 
chegar aos 1 TB para cada arquivo...seria necessario alterrar o tamanho do 
bloco...certo ou estõu viajando ?

--- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchia...@... escreveu

 Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB 
 para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a 
 guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO PORQUE 
 vc quer ter um único datafiles bigfile de não sei quantos Tb, ao invés de n 
 datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? Imagino que vc 
 vai armazenar os documentos dentro do banco em LOBs, aí vc entende que o 
 banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco vai alocando 
 blocos em cada datafile, certo ? Assim, se vc está gravando , sei lá, um 
 documento de 2 Gb num datafile ue tem menos que isso livre, naturalmente o bd 
 Oracle vai alocando os blocos livres no datafile1, quando ele enche ele 
 CONTINUA a alocar blocos no datafile 2, até alcançar os 2 Gb que vc precisava 
 ?
 
  []s
 
   Chiappa
 
 --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
 
  Mas Chiappa, me tira uma dúvida...
  
  Neste caso específico..este servidor é para armazenar documentos scaneados 
  / gravação de voz (telefonia e etc...)...
  
  Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma 
  migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando 
  neste problema :-(
  
  
  
  --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
  
   Bom, confesso que nunca vi lá muito sentido (administrativamente falando) 
   em ter um único super-gigante fs do que vários , já que entre outras 
   coisas, se vc tiver vários fs quando vc tiver que fazer alguma 
   manutenção/verificação de fs (por exemplo, um check, ou um backup a nível 
   de fs, sei lá) vc pode disparar várias operações em paralelo em tese, 
   enquanto com um só fs não tem jeito, é esse cara que vai ser 
   lido/acessado single até o fim...
Anyway, há várias possibilidades : por exemplo, cfrme 
   http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1 
   , vc pode estar usando um esquema de particionamento do disco sujeito a 
   limites, ou talvez vc esteja com um bloco muito pequeno 
   (http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes 
   de block size no ext3, mas com certeza eles devem existir similar no 
   raiser), ou então talvez simplesmente vc esteja com um kernel/versão do 
   raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o 
   particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do 
   hardware (discos, controladoras, do server), os detalhes do fs 
   (blocksize, journaling, enfim TODAS as opções que foram usadas),E (o mais 
   crítico) as versões PRECISAS do kernel, do binário do fs , do SO 
   (incluindo os PATCHES aplicados), que aí sim a gente pode tentar palpitar 
   : como eu disse, eu mesmo nunca usei isso, mas manda aí que a gente tenta 
   dizer algo, e também existe muita gente aqui no fórum com experiência em 
   linux, que pode ajudar também
   
[]s
   
 Chiappa
   
   --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
   
Bom dia Colegas,

Seguinte, tenho uma duvida...

Perguntei a meu pessoal de SO e eles nao souberam me informar...mas 
existwe uma limitacao de 2 TB para criacao de arquivos de Red Hat ?
Estou trabalhando com RaiseFS...

E neste caso, quando crio uma tablespace Bigfile...chegando aos  
2TB...levando em consideracao que ela e a tablespaces padrao do usuario 
e que nao consegue mais ser extendida...posso criar outra do mesmo tipo 
e alternar para ser a nova default do usuario sem problemas ?

Lembrando que o padrao era que esta tablespace pudesse crescer mais que 
2 TB...mas estou com esta limitacao no SO
   
  
 





[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico jlchiappa
Sim  : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no 
cap. Physical Database Limits ele diz (pensando em smallfiles) : 

A smallfile tablespace is a traditional Oracle tablespace, which can contain 
1022 datafiles or tempfiles, each of which can contain up to approximately 4 
million (2^22) blocks.

Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 
4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a tablespace 
pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 bytes, ou seja, 
algumas dezenas de Tb, vc diz que deve levar coisa de 20 Gb, estaria dentro... 
E isso, claro, sem considerar que ** LOGICAMENTE ** quando se fala num volume 
imenso do tipo, OBRIGATORIAMENTE vc vai ter PARTICIONAMENTO aí na parada (por 
dia/por mês/por ano, o que for, não tem graça varrer uma pancada assim de dados 
históricos a cada acesso), aí Naturalmente vc terá uma tablespace por cada 
partição, os limites se ampliam ainda mais aí...

 []s

   Chiappa

--- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu

 Então Chiappa...seguinte..
 
 O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o Oracle 
 onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao longo dos 
 proximos 3 anos, totalizando uns 20 TB de Binarios..
 
 Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 4 
 TB e depois, ir aumentando aos poucos
 
 Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando a 
 autoextend on em um datafile (trabalhando com tamanho de bloco padrão)...para 
 chegar aos 1 TB para cada arquivo...seria necessario alterrar o tamanho do 
 bloco...certo ou estõu viajando ?
 
 --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
 
  Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB 
  para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a 
  guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO 
  PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao 
  invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? 
  Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc 
  entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o banco 
  vai alocando blocos em cada datafile, certo ? Assim, se vc está gravando , 
  sei lá, um documento de 2 Gb num datafile ue tem menos que isso livre, 
  naturalmente o bd Oracle vai alocando os blocos livres no datafile1, quando 
  ele enche ele CONTINUA a alocar blocos no datafile 2, até alcançar os 2 Gb 
  que vc precisava ?
  
   []s
  
Chiappa
  
  --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
  
   Mas Chiappa, me tira uma dúvida...
   
   Neste caso específico..este servidor é para armazenar documentos 
   scaneados / gravação de voz (telefonia e etc...)...
   
   Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma 
   migração do sql server que ja tem 4 TB para o Oracle...e estou esbarrando 
   neste problema :-(
   
   
   
   --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
   
Bom, confesso que nunca vi lá muito sentido (administrativamente 
falando) em ter um único super-gigante fs do que vários , já que entre 
outras coisas, se vc tiver vários fs quando vc tiver que fazer alguma 
manutenção/verificação de fs (por exemplo, um check, ou um backup a 
nível de fs, sei lá) vc pode disparar várias operações em paralelo em 
tese, enquanto com um só fs não tem jeito, é esse cara que vai ser 
lido/acessado single até o fim...
 Anyway, há várias possibilidades : por exemplo, cfrme 
http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1
 , vc pode estar usando um esquema de particionamento do disco sujeito 
a limites, ou talvez vc esteja com um bloco muito pequeno 
(http://www.guiadohardware.net/termos/ext3 fala dos limites decorrentes 
de block size no ext3, mas com certeza eles devem existir similar no 
raiser), ou então talvez simplesmente vc esteja com um kernel/versão do 
raiser antigos... Então, levanta ** EXATAMENTE ** como foi feito o 
particionamento dos seus discos, dá pra gente os DETALHES PRECISOS do 
hardware (discos, controladoras, do server), os detalhes do fs 
(blocksize, journaling, enfim TODAS as opções que foram usadas),E (o 
mais crítico) as versões PRECISAS do kernel, do binário do fs , do SO 
(incluindo os PATCHES aplicados), que aí sim a gente pode tentar 
palpitar : como eu disse, eu mesmo nunca usei isso, mas manda aí que a 
gente tenta dizer algo, e também existe muita gente aqui no fórum com 
experiência em linux, que pode ajudar também

 []s

  Chiappa

--- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ 
escreveu

 Bom dia Colegas,
 

[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico José Laurindo
Ops, erro de digitação, onde eu falei coisa de 20 Gbentenda-se coisa de 20 
Tb, claro...

 []s

   Chiappa

--- Em oracle_br@yahoogrupos.com.br, jlchiappa jlchia...@... escreveu

 Sim  : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no 
 cap. Physical Database Limits ele diz (pensando em smallfiles) : 
 
 A smallfile tablespace is a traditional Oracle tablespace, which can contain 
 1022 datafiles or tempfiles, each of which can contain up to approximately 4 
 million (2^22) blocks.
 
 Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 
 4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a tablespace 
 pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 bytes, ou 
 seja, algumas dezenas de Tb, vc diz que deve levar coisa de 20 Gb, estaria 
 dentro... E isso, claro, sem considerar que ** LOGICAMENTE ** quando se fala 
 num volume imenso do tipo, OBRIGATORIAMENTE vc vai ter PARTICIONAMENTO aí na 
 parada (por dia/por mês/por ano, o que for, não tem graça varrer uma pancada 
 assim de dados históricos a cada acesso), aí Naturalmente vc terá uma 
 tablespace por cada partição, os limites se ampliam ainda mais aí...
 
  []s
 
Chiappa
 
 --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
 
  Então Chiappa...seguinte..
  
  O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o 
  Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao 
  longo dos proximos 3 anos, totalizando uns 20 TB de Binarios..
  
  Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 
  4 TB e depois, ir aumentando aos poucos
  
  Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando 
  a autoextend on em um datafile (trabalhando com tamanho de bloco 
  padrão)...para chegar aos 1 TB para cada arquivo...seria necessario 
  alterrar o tamanho do bloco...certo ou estõu viajando ?
  
  --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
  
   Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB 
   para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a 
   guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO 
   PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao 
   invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? 
   Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc 
   entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o 
   banco vai alocando blocos em cada datafile, certo ? Assim, se vc está 
   gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que 
   isso livre, naturalmente o bd Oracle vai alocando os blocos livres no 
   datafile1, quando ele enche ele CONTINUA a alocar blocos no datafile 2, 
   até alcançar os 2 Gb que vc precisava ?
   
[]s
   
 Chiappa
   
   --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
   
Mas Chiappa, me tira uma dúvida...

Neste caso específico..este servidor é para armazenar documentos 
scaneados / gravação de voz (telefonia e etc...)...

Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma 
migração do sql server que ja tem 4 TB para o Oracle...e estou 
esbarrando neste problema :-(



--- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ 
escreveu

 Bom, confesso que nunca vi lá muito sentido (administrativamente 
 falando) em ter um único super-gigante fs do que vários , já que 
 entre outras coisas, se vc tiver vários fs quando vc tiver que fazer 
 alguma manutenção/verificação de fs (por exemplo, um check, ou um 
 backup a nível de fs, sei lá) vc pode disparar várias operações em 
 paralelo em tese, enquanto com um só fs não tem jeito, é esse cara 
 que vai ser lido/acessado single até o fim...
  Anyway, há várias possibilidades : por exemplo, cfrme 
 http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1
  , vc pode estar usando um esquema de particionamento do disco 
 sujeito a limites, ou talvez vc esteja com um bloco muito pequeno 
 (http://www.guiadohardware.net/termos/ext3 fala dos limites 
 decorrentes de block size no ext3, mas com certeza eles devem existir 
 similar no raiser), ou então talvez simplesmente vc esteja com um 
 kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** 
 como foi feito o particionamento dos seus discos, dá pra gente os 
 DETALHES PRECISOS do hardware (discos, controladoras, do server), os 
 detalhes do fs (blocksize, journaling, enfim TODAS as opções que 
 foram usadas),E (o mais crítico) as versões PRECISAS do kernel, do 
 binário do fs , do SO (incluindo os PATCHES aplicados), que aí sim a 
 gente pode tentar palpitar : como eu disse, eu mesmo nunca usei isso, 
 mas manda aí que a 

[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico candiurudba
entendi...

Mas esta é agrande questão...se cada arquivo de dados (para tamanho padrao de 
bloco)eu consigo chegar a 34 GB, precisarei criar N arquivos de dados para 
suportar a massa da migração + todos os novos arquivos...terei mais de 200 (por 
baixo).

É..é so uma questão de administração né...

Mas pode ser uma solução...

Pensei em falar ate com meu pessoal de SO, para aumentar o tamando o tamanho do 
bloco...assim consigo chegar a valores maiores um pouco...

Mas vlw Chiappa...clareou as ideias...rs

--- Em oracle_br@yahoogrupos.com.br, jlchiappa jlchia...@... escreveu

 Sim  : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no 
 cap. Physical Database Limits ele diz (pensando em smallfiles) : 
 
 A smallfile tablespace is a traditional Oracle tablespace, which can contain 
 1022 datafiles or tempfiles, each of which can contain up to approximately 4 
 million (2^22) blocks.
 
 Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 
 4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a tablespace 
 pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 bytes, ou 
 seja, algumas dezenas de Tb, vc diz que deve levar coisa de 20 Gb, estaria 
 dentro... E isso, claro, sem considerar que ** LOGICAMENTE ** quando se fala 
 num volume imenso do tipo, OBRIGATORIAMENTE vc vai ter PARTICIONAMENTO aí na 
 parada (por dia/por mês/por ano, o que for, não tem graça varrer uma pancada 
 assim de dados históricos a cada acesso), aí Naturalmente vc terá uma 
 tablespace por cada partição, os limites se ampliam ainda mais aí...
 
  []s
 
Chiappa
 
 --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
 
  Então Chiappa...seguinte..
  
  O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o 
  Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo ao 
  longo dos proximos 3 anos, totalizando uns 20 TB de Binarios..
  
  Então, neste cenario, pensei em criar uma unica tablespace com os primeiros 
  4 TB e depois, ir aumentando aos poucos
  
  Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, habilitando 
  a autoextend on em um datafile (trabalhando com tamanho de bloco 
  padrão)...para chegar aos 1 TB para cada arquivo...seria necessario 
  alterrar o tamanho do bloco...certo ou estõu viajando ?
  
  --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
  
   Explica melhor aí : quando vc diz migração do sql server que ja tem 4 TB 
   para o Oracle, vc está dizendo que o TOTAL dos dados, dos documentos a 
   guardar no banco, é de 4Tb, certo ? Sendo isso, absolutamente NÃO VEJO 
   PORQUE vc quer ter um único datafiles bigfile de não sei quantos Tb, ao 
   invés de n datafiles nomeados de 1 Tb, ou o que for... Tem alguma razão ? 
   Imagino que vc vai armazenar os documentos dentro do banco em LOBs, aí vc 
   entende que o banco Oracle grava isso em BLOCOS, E QUE naturalmente o 
   banco vai alocando blocos em cada datafile, certo ? Assim, se vc está 
   gravando , sei lá, um documento de 2 Gb num datafile ue tem menos que 
   isso livre, naturalmente o bd Oracle vai alocando os blocos livres no 
   datafile1, quando ele enche ele CONTINUA a alocar blocos no datafile 2, 
   até alcançar os 2 Gb que vc precisava ?
   
[]s
   
 Chiappa
   
   --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
   
Mas Chiappa, me tira uma dúvida...

Neste caso específico..este servidor é para armazenar documentos 
scaneados / gravação de voz (telefonia e etc...)...

Como então voce alocaria arquivos com mais de 2 TB ? Estou fazendo uma 
migração do sql server que ja tem 4 TB para o Oracle...e estou 
esbarrando neste problema :-(



--- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ 
escreveu

 Bom, confesso que nunca vi lá muito sentido (administrativamente 
 falando) em ter um único super-gigante fs do que vários , já que 
 entre outras coisas, se vc tiver vários fs quando vc tiver que fazer 
 alguma manutenção/verificação de fs (por exemplo, um check, ou um 
 backup a nível de fs, sei lá) vc pode disparar várias operações em 
 paralelo em tese, enquanto com um só fs não tem jeito, é esse cara 
 que vai ser lido/acessado single até o fim...
  Anyway, há várias possibilidades : por exemplo, cfrme 
 http://www.novell.com/support/viewContent.do?externalId=7000331sliceId=1
  , vc pode estar usando um esquema de particionamento do disco 
 sujeito a limites, ou talvez vc esteja com um bloco muito pequeno 
 (http://www.guiadohardware.net/termos/ext3 fala dos limites 
 decorrentes de block size no ext3, mas com certeza eles devem existir 
 similar no raiser), ou então talvez simplesmente vc esteja com um 
 kernel/versão do raiser antigos... Então, levanta ** EXATAMENTE ** 
 como foi feito o particionamento dos seus discos, dá pra 

[oracle_br] Re: CRIACAO DE BIGFILES TABLESPACES

2010-03-18 Por tôpico José Laurindo
Sim, se por qquer motivo/limitação do seu SO, hardware ou o que for vc não 
consegui/não puder usar um bigfile do tamanhão que vc quer, certamente vc terá 
que ir pros small files, e sim, vai ter que criar um monte, mas eu  NÃO 
 vejo trabalho algum, dificuldade alguma, é só entrar no sqlplus e fazer 
uma query tipo :

select 'CREATE TABLESPACE MINHA_TS DATAFILE ' from dual
 UNION
 SELECT 'datafile X:\MINHA_TS_ARQ' || to_char(rownum, 'FM0009') || ','
  FROM DBA_TAB_COLUMNS WHERE ROWNUM  100;

que vc já obtém o script prontinho, só executar, sem prob ALGUM, certo ? Ou se 
não gostar dessa, escreve um bloco PL/SQL que cria com EXEC IMEMDIATE, ou gera 
o script numa planilha Excel... O fato é que Absolutamente não é desculpa o 
número de arqs a criar, não há (nem pode haver) dificuldade nenhuma nisso, é 
trampo pra 5 MINUTOS SE MUITO...
 Também não vejo razão nem técnica nem administrativa  pra vc preferir ter 100 
ao invés de 200 ou ao invés de 500 ou sejam quantos datafiles forem - via de 
regra o funcionamento do banco é O MESMO tenha vc 'poucos' ou 'muitos' 
datafiles,  as questões administrativas (como backup) absolutamente NÃO são 
dificultadas em vc ter 'muitos' datafiles (já que Lógico vc vai gerar Scripts 
pra isso também) ... A preocupaçãoadministrativa maior sua a planejar um bd de 
alto volume deve ser muito mais com a hora de Manipular o arquivo - por 
exemplo, via de regra é muito mais rápido vc fazer recover em paralelo de 5 
arqs de 100 Gb do que um de 500 Gb, coisas assim, mas na Operação normal do 
dia-a-dia, prob algum...

 []s

   Chiappa
--- Em oracle_br@yahoogrupos.com.br, candiurudba candiuru...@... escreveu

 entendi...
 
 Mas esta é agrande questão...se cada arquivo de dados (para tamanho padrao de 
 bloco)eu consigo chegar a 34 GB, precisarei criar N arquivos de dados para 
 suportar a massa da migração + todos os novos arquivos...terei mais de 200 
 (por baixo).
 
 É..é so uma questão de administração né...
 
 Mas pode ser uma solução...
 
 Pensei em falar ate com meu pessoal de SO, para aumentar o tamando o tamanho 
 do bloco...assim consigo chegar a valores maiores um pouco...
 
 Mas vlw Chiappa...clareou as ideias...rs
 
 --- Em oracle_br@yahoogrupos.com.br, jlchiappa jlchiappa@ escreveu
 
  Sim  : cheque o manual Oracle® Database Reference 10g Release 2 (10.2) no 
  cap. Physical Database Limits ele diz (pensando em smallfiles) : 
  
  A smallfile tablespace is a traditional Oracle tablespace, which can 
  contain 1022 datafiles or tempfiles, each of which can contain up to 
  approximately 4 million (2^22) blocks.
  
  Ou seja, se vc tiver blocksize default de 8Kb, cada datafile poderá ter até 
  4194304 * 8192 = 34.359.738.368, ou seja, cerca de 34 Gb. Já que a 
  tablespace pode ter até 1022 datafiles, 1022 * 34 Gb dá 35.115.652.612.096 
  bytes, ou seja, algumas dezenas de Tb, vc diz que deve levar coisa de 20 
  Gb, estaria dentro... E isso, claro, sem considerar que ** LOGICAMENTE ** 
  quando se fala num volume imenso do tipo, OBRIGATORIAMENTE vc vai ter 
  PARTICIONAMENTO aí na parada (por dia/por mês/por ano, o que for, não tem 
  graça varrer uma pancada assim de dados históricos a cada acesso), aí 
  Naturalmente vc terá uma tablespace por cada partição, os limites se 
  ampliam ainda mais aí...
  
   []s
  
 Chiappa
  
  --- Em oracle_br@yahoogrupos.com.br, candiurudba candiurudba@ escreveu
  
   Então Chiappa...seguinte..
   
   O SQL SERVER ja tem la seus 4 TB de arquivos que serão migrados para o 
   Oracle onde o mesmo ira iniciar com os 4 TB + tudo que for gravado novo 
   ao longo dos proximos 3 anos, totalizando uns 20 TB de Binarios..
   
   Então, neste cenario, pensei em criar uma unica tablespace com os 
   primeiros 4 TB e depois, ir aumentando aos poucos
   
   Mas me tira uma dúvida por favor, so consigui chegar aos 36 GB, 
   habilitando a autoextend on em um datafile (trabalhando com tamanho de 
   bloco padrão)...para chegar aos 1 TB para cada arquivo...seria necessario 
   alterrar o tamanho do bloco...certo ou estõu viajando ?
   
   --- Em oracle_br@yahoogrupos.com.br, José Laurindo jlchiappa@ escreveu
   
Explica melhor aí : quando vc diz migração do sql server que ja tem 4 
TB para o Oracle, vc está dizendo que o TOTAL dos dados, dos 
documentos a guardar no banco, é de 4Tb, certo ? Sendo isso, 
absolutamente NÃO VEJO PORQUE vc quer ter um único datafiles bigfile de 
não sei quantos Tb, ao invés de n datafiles nomeados de 1 Tb, ou o que 
for... Tem alguma razão ? Imagino que vc vai armazenar os documentos 
dentro do banco em LOBs, aí vc entende que o banco Oracle grava isso em 
BLOCOS, E QUE naturalmente o banco vai alocando blocos em cada 
datafile, certo ? Assim, se vc está gravando , sei lá, um documento de 
2 Gb num datafile ue tem menos que isso livre, naturalmente o bd Oracle 
vai alocando os blocos livres no datafile1, quando ele enche ele 
CONTINUA a alocar blocos no