/docs/MyDocs

To get this branch, use:
bzr branch http://darksoft.org/webbzr/docs/MyDocs

« back to all changes in this revision

Viewing changes to Administration/Server/Storage/clusterfs/ceph.txt

  • Committer: Suren A. Chilingaryan
  • Date: 2017-04-03 02:45:17 UTC
  • Revision ID: csa@suren.me-20170403024517-dwzj0z0k1cmhxm7u
Restructuring, OpenShift, Ansible, Git

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
Configuration
 
2
=============
 
3
Server:
 
4
 
 
5
[global]
 
6
        auth supported = cephx
 
7
[osd]
 
8
        osd journal size = 1000
 
9
        filestore xattr use omap = true
 
10
[mon.a]
 
11
        host = ipepdvcompute2
 
12
        mon addr = 192.168.11.5:6789
 
13
[osd.0]
 
14
        host = ipepdvcompute2
 
15
        btrfs devs = /dev/sdc
 
16
[mds.a]
 
17
        host = ipepdvcompute2
 
18
 
 
19
 
 
20
Client: 
 
21
 
 
22
[global]
 
23
        auth supported = cephx
 
24
 
 
25
[mon.a]
 
26
        host = ipepdvcompute2
 
27
        mon addr = 192.168.11.5:6789
 
28
        
 
29
        
 
30
Setup
 
31
=====
 
32
 - Put setup to /etc/ceph/ceph.conf
 
33
 - Create configuration directories
 
34
        mkdir -p /var/lib/ceph/osd/ceph-0
 
35
        mkdir -p /var/lib/ceph/mon/ceph-a
 
36
        mkdir -p /var/lib/ceph/mds/ceph-a
 
37
 - Generate cluster setup
 
38
     mkcephfs -a -c /etc/ceph/ceph.conf -k ceph.keyring
 
39
     it will generate /var/lib/ceph
 
40
 - Check for complains in logs, some folders may not exists
 
41
    /var/run/ceph, etc.
 
42
 - Start ceph, 3 daemons should run ceph-mon, ceph-mds, ceph-osd
 
43
 - Check for complains. Some directories still may miss. And it
 
44
 really drove me made with authorization... 
 
45
 - Declare we don't have replication
 
46
    ceph osd pool set rbd size 1
 
47
    ceph osd pool set data size 1
 
48
    ceph osd pool set metadata size 1
 
49
 - restart ceph afterwards
 
50
 - ceph health should say OK
 
51
 - connect from client and check if ceph health says OK
 
52
 - create block device 
 
53
    modprobe rbd
 
54
    rbd create vol1 --size 1048576 (in MB)
 
55
 - on the client (this will be just a block device, no sharing with other clients)
 
56
    rbd map vol1 --pool rbd --name client.admin
 
57
    mkfs.ext4 -m0 /dev/rbd/rbd/vol1
 
58
    mount /dev/rbd/rbd/vol1 /mnt/ssd
 
59
 - The shared file system is ceph fs and shall be used somehow like that:
 
60
     mount -t ceph 192.168.15.5:6789:/ /mnt/ssd
 
61
 but there are another auth issuse, etc. I have stoped.
 
62
 
 
 
b'\\ No newline at end of file'