> Op 11 aug. 2017 om 20:22 heeft Sameer Tiwari het
> volgende geschreven:
>
> Hi,
>
> We ran a test with 1500 MTU and 9000MTU on a small ceph test cluster (3mon +
> 10 hosts with 2 SSD each, one for journal and one for data) and found minimal
> ~10% perf improvements.
>
> We tested with FI
> Op 17 jan. 2017 om 05:31 heeft Hauke Homburg het
> volgende geschreven:
>
> Am 16.01.2017 um 12:24 schrieb Wido den Hollander:
>>> Op 14 januari 2017 om 14:58 schreef Hauke Homburg :
>>>
>>>
>>> Am 14.01.2017 um 12:59 schrieb Wido den Hollander:
> Op 14 januari 2017 om 11:05 schreef Ha
> Op 17 jan. 2017 om 03:47 heeft Tu Holmes het volgende
> geschreven:
>
> I could use either one. I'm just trying to get a feel for how stable the
> technology is in general.
Stable. Multiple customers of me run it in production with the kernel client
and serious load on it. No major probl
in development or on a todo somewhere.
>
>> On 24.12.2016 14:55, w...@42on.com wrote:
>>
>>> Op 24 dec. 2016 om 14:47 heeft L. Bader het volgende
>>> geschreven:
>>>
>>> Hello,
>>>
>>> I have a problem with our (dead) Ceph
> Op 24 dec. 2016 om 14:47 heeft L. Bader het volgende
> geschreven:
>
> Hello,
>
> I have a problem with our (dead) Ceph-Cluster: The configuration seems to be
> gone (deleted / overwritten) and all monitors are gone aswell. However, we do
> not have (up-to-date) backups for all VMs (used
> Op 3 nov. 2016 om 19:13 heeft Joao Eduardo Luis het volgende
> geschreven:
>
>> On 11/03/2016 05:52 PM, w...@42on.com wrote:
>>
>>
>>>> Op 3 nov. 2016 om 16:44 heeft Joao Eduardo Luis het
>>>> volgende geschreven:
>>&
> Op 3 nov. 2016 om 16:44 heeft Joao Eduardo Luis het volgende
> geschreven:
>
>> On 11/03/2016 01:24 PM, Wido den Hollander wrote:
>>
>>> Op 3 november 2016 om 13:09 schreef Joao Eduardo Luis :
>>>
>>>
On 11/03/2016 09:40 AM, Wido den Hollander wrote:
root@mon3:/var/lib/ceph/mon#
> Op 28 okt. 2016 om 11:52 heeft Kees Meijs het volgende
> geschreven:
>
> Hi Cephers,
>
> Using Ceph 0.94.9-1trusty we noticed severe I/O stalling during deep
> scrubbing (vanilla parameters used in regards to scrubbing). I'm aware this
> has been discussed before, but I'd like to share th
Short reply from phone. Try object store tool on primary OSD and mark as
complete.
ceph-objectstore-tool that is. Run on the primary OSD for that PG.
Wido
> Op 3 sep. 2016 om 19:47 heeft Dan Jakubiec het
> volgende geschreven:
>
> I think we are zero'ing in now on root cause for the stuck in
> Op 18 aug. 2016 om 10:15 heeft nick het volgende geschreven:
>
> Hi,
> we are currently building a new ceph cluster with only NVME devices. One Node
> consists of 4x Intel P3600 2TB devices. Journal and filestore are on the same
> device. Each server has a 10 core CPU and uses 10 GBit ether
> Op 14 aug. 2016 om 08:55 heeft Willi Fehler het
> volgende geschreven:
>
> Hello guys,
>
> my cluster is running on the latest Ceph version. My cluster and my client
> are running on CentOS 7.2.
>
> ceph version 10.2.2 (45107e21c568dd033c2f0a3107dec8f0b0e58374)
>
> My Client is using Cep
> Op 13 aug. 2016 om 09:24 heeft Willi Fehler het
> volgende geschreven:
>
> Hello,
>
> I'm trying to use CephFS quaotas. On my client I've created a subdirectory in
> my CephFS mountpoint and used the following command from the documentation.
>
> setfattr -n ceph.quota.max_bytes -v 100
> Op 13 aug. 2016 om 08:58 heeft Georgios Dimitrakakis
> het volgende geschreven:
>
>
>>> Op 13 aug. 2016 om 03:19 heeft Bill Sharer het volgende geschreven:
>>>
>>> If all the system disk does is handle the o/s (ie osd journals are
>>> on dedicated or osd drives as well), no problem. Just
> Op 13 aug. 2016 om 03:19 heeft Bill Sharer het
> volgende geschreven:
>
> If all the system disk does is handle the o/s (ie osd journals are on
> dedicated or osd drives as well), no problem. Just rebuild the system and
> copy the ceph.conf back in when you re-install ceph. Keep a spar
> Op 21 jul. 2016 om 21:06 heeft Salwasser, Zac het
> volgende geschreven:
>
> Thanks for the response! Long story short, there’s one specific osd in my
> cluster that is responsible, according to the dump command, for the two pg’s
> that are still down.
>
> I wiped the osd data directory
Try one of the mirrors, see the docs of Ceph.
eu.ceph.com, etc
Wido
> Op 25 jun. 2016 om 09:29 heeft Jeronimo Romero het
> volgende geschreven:
>
> This always happens on server migration night :)
>
>
>
> Sent from my T-Mobile 4G LTE Device
>
>
> Original message
> From
> Op 12 apr. 2016 om 23:09 heeft Nick Fisk het volgende
> geschreven:
>
> Jan,
>
> I would like to echo Sage's response here. It seems you only want a subset
> of what Ceph offers, whereas RADOS is designed to offer a whole lot more,
> which requires a lot more intelligence at the lower level
> Op 7 feb. 2016 om 12:56 heeft Oliver Dzombic het
> volgende geschreven:
>
> Hi,
>
> we can offer a mirror located in Frankfurt/Main Germany.
>
> If wanted, please let me know.
>
Also very welcome, this way we cover Europe properly.
Do you have native IPv4 and IPv6 available?
If so, I'l
> Op 7 feb. 2016 om 12:23 heeft Tomáš Kukrál het
> volgende geschreven:
>
> Hi,
> We can build new mirror in Czech republic,
>
> Would it help even there are mirrors already in Netherlands and
> (Sweden)?
>
Yes! The more mirrors, the better. This way we make sure people can always
fetch Cep
19 matches
Mail list logo