Iya, untung sdh ada anggota tim yg khusus menangani masalah ini.
Thanks utk semua tanggapannya, kalau sdh ada solusi utk masalah ini
akan saya share.

regards,
T Budi S


2008/6/6 sm96 <[EMAIL PROTECTED]>:
> kalo udah main proses data segitu gedenya,
> mesti berani bikin yang kompleks-kompleks dan berat-berat.
> tapi hasilnya jadi bagus.
> memang untuk masalah "bulk processing", sangat-sangatlah kompleks urusannya.
> gak bisa sembarangan pake cara ini dan itu.
> dan pastinya gak bisa lagi pake cara-cara tradisional dan konvensional.
>
> 2008/6/5 T Budi S <[EMAIL PROTECTED]>:
>
>> 2008/6/5 Adelwin Handoyo <[EMAIL PROTECTED]>:
>>
>>>
>>> Khan tadi katanya langkah berikutnya yaitu optimasi pembacaan dari
>>> database
>>> khan?
>>> Jadi bongkar JDBC dong? :p
>>
>> Maksudnya scr high level :D
>>
>>> Bayangan gue bikin nya gini...
>>> For each row {
>>> String param = rs.getString(1);
>>> New SubProcess(param);
>>> }
>>> Class SubProcess ini akan extends Thread atau implement Runnable...
>>> tergantung mana yang lebih baik sih...
>>> Jadi while si SubProcess ini baru launch... iteration udah restart lagi
>>> dari
>>> atas...
>>> Lebih cepet...
>>> Yang perlu di itung adalah SubProcess ini akan jalan berapa lama...
>>> Dan iteration nya sendiri akan seberapa cepet...
>>> We don't want too many SubProcess(s) running at the same time... maybe a
>>> few
>>> hundred shoud be good lah..
>>>
>>
>> Apakah maksudnya ada semacam Process pooling gitu ? Jadi kompleks donk ...
>> Tapi kalo ga dibatasi takutnya OutOfMemory, krn iterasi minimal aja
>> udah 10 ribu.
>> Prosesnya sendiri relatif cepat. No need to worry lah ...
>>
>> Skr overhead justru ada di pembacaan databasenya.
>>
>> thanks anyway :)
>> T Budi S
>>
>
> --
> syaiful.mukhlis
> gtalk:[EMAIL PROTECTED]
> 

Kirim email ke