Khorsun Vlad wrote:

   Во-первых *а*приори. Во-вторых - писать из датчика напрямую в БД
это и есть через жопу. Впрочем я выше написал что такое не лечу :)

Буфер есть, но только для нештатных ситуаций.
Я так и не понял, как ты предлагаешь вставлять записи, идущие от датчика например раз в 1 сек? Ждать 10штук, потом оптом вставлять? Только не это.

   Угу, 2^31 анализов за полгода... Сам понял, что написал ?
Ну тогда и нам объясни :)

Вставка И анализы вместе. В распределённой системе (много клиентов и писателей) будет очень непросто контролировать расход номеров транзакций.

   А кто - очень ? NTFS ? Ну так я же не заставляю мучать ФБ, у меня
другой интерес, но ты его не удовлетворяешь (алгоритмы, алгоритмы...).

Для начала нужен всего лишь кластерный индекс по паре (id датчика, время).

   Ну сделай выборку за последний день с 20 датчиков. Читая 8x20GB в
сервере приложений :) А, ты будешь каждый день новый файл создавать ?

Внутри файла с показаниями датчика измерения будут лежать в порядке времени. Поэтому полное чтение файла не нужно при выборке по интервалу времени.

   А ведь при наличии СУБД (любой, не обязательно ФБ) апп-сервер
становится не нужен.

Мы уже тут очертили основные проблемы на этом пути. Есть три метода:
1) Свалить все измения в одну таблицу.
2) Партиционировать по разным таблицам
3) Аналогично по разным БД
Я приемлю только первый способ. Но его сервер не осилит.


Ответить