Zdravím, provádím teď nějaké analýzy dat a protože jejich zpracování je časově náročné, začal jsem je zpracovávat na výpočetně výkonějším stroji. Porovnáním již provedených analýz jsem ale zjistil, že se výsledky liší. Chyby (rozdíl) se nevyskytují ve všech charakteristikách, ani nejsou nijak závratné, ale jsou (a v některých případech nejsou ani moc zanedbatelné).
Spíš než aby mi to způsobovalo nějaké praktické komplikace mě to překvapilo. Data se načítají z identických binárních zdrojů, používá se ten samý kód k jejich zpracování včetně verzí veškerých knihoven i interpretu samotného (binární balík). Chápal bych to snáze u nízkoůrovňových jazyků, ale myslel jsem, že python bude v tomto konzistentní. Zakopaný pes bude asi v knihovně numpy, kterou využívám, a jejíž střeva jsou psána v C (pokud vím). Zkoušel jsem googlovat, ale nenašel jsem žádné moc relevantní informace. Existuje možnost jak se dostat do nějakého 'strict' režimu, kdy by k tomu nedocházelo? Nebo rozlišit situace, kdy k podobnému efektu může dojít. Stačí i linky. Dík Radek P.S. použité stroje: 1) Intel(R) Core(TM)2 Duo CPU T8100 @ 2.10GHz GenuineIntel 2) Intel(R) Core(TM)2 Quad CPU Q9550 @ 2.83GHz _______________________________________________ Python mailing list [email protected] http://www.py.cz/mailman/listinfo/python
