搬迁home到独门分区,设定客户分配的定额

2018-8-29 dynalist 配额

CentOS6.8下落成配置分配的定额

  Linux系统是支撑多顾客的,即允许八个客商同期使用linux系统,普通客商在/home/目录下均有谈得来的家目录,在暗中认可状态下,各样客商能够在温馨的家目录下率性创立文件,而不用忧虑内部存储器。作为系统管理员,为了幸免各样客商占用太多的空间,可认为种种普通客商设置配置分配的定额,即设置各种客户的文本占用的长台湾空中大学小。

 

       本文以硬盘/dev/sdb为例设置配置分配的定额:

尝试背景:
Linux是个多客商多任务系统,出于安全等原因,对两样的客户大家日常做明确的权限管理。空间分配的定额限定正是中间叁个内需思谋的点。分配的定额是依据分区配置的,幸免客户数据占用太多磁盘空间,我们平时把home目录单独划分一个分区,然后对区别客户设定分配的定额。

centos7的xfs配置,centos7xfs配置

XFS是扩大性高、高品质的文件系统。也是rhel7/centos7的默许文件系统。
XFS帮忙metadata journaling,那使其能从crash中更便捷的过来。
它也扶持在挂载和活动的意况下进展零散收拾和扩大体积。
通过延迟分配,XFS 赢得了不菲时机来优化写质量。
可因此工具xfsdump和xfsrestore来备份和恢复xfs文件系统,
xfsdump可选用dump等第来成功增量备份,还可通过size,subtree,inode
flags来排除文件。
也支持user、group、project配额。

上边将介绍怎么样创设xfs文件系统,分配分配的定额以至对其扩大体积:
###############################################################################
将/dev/sdb分区(2G),并启动LVM功能

[[email protected] zhongq]#parted /dev/sdb                               
GNU Parted 3.1
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) mkpart primary 4 2048
(parted) set 1 lvm on                                                    
(parted) p                                                             
Model: VMware, VMware Virtual S (scsi)
Disk /dev/sdb: 2147MB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system  Name     Flags
 1      4194kB  2048MB  2044MB               primary  lvm

 

###############################################################################
创建PV

[[email protected] zhongq]# pvcreate /dev/sdb1
  Physical volume "/dev/sdb1" successfully created

[[email protected] zhongq]# pvdisplay
  --- Physical volume ---
  PV Name               /dev/sda2
  VG Name               centos
  PV Size               24.51 GiB / not usable 3.00 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              6274
  Free PE               0
  Allocated PE          6274
  PV UUID               9hp8U7-IJM6-bwbP-G9Vn-IVuJ-yvE8-AkFjcB

  "/dev/sdb1" is a new physical volume of "1.90 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sdb1
  VG Name               
  PV Size               1.90 GiB
  Allocatable           NO
  PE Size               0   
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               bu7yIH-1440-BPy1-APG2-FpvX-ejLS-2MIlA8

###############################################################################
将/dev/sdb1分配到名字为xfsgroup00的VG

[[email protected] zhongq]# vgcreate  xfsgroup00 /dev/sdb1
 Volume group "xfsgroup00" successfully created
[[email protected] zhongq]# vgdisplay
 --- Volume group ---
  VG Name               centos
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               24.51 GiB
  PE Size               4.00 MiB
  Total PE              6274
  Alloc PE / Size       6274 / 24.51 GiB
  Free  PE / Size       0 / 0   
  VG UUID               T3Ryyg-R0rn-2i5r-7L5o-AZKG-yFkh-CDzhKm

  --- Volume group ---
  VG Name               xfsgroup00
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               1.90 GiB
  PE Size               4.00 MiB
  Total PE              487
  Alloc PE / Size       0 / 0   
  Free  PE / Size       487 / 1.90 GiB
  VG UUID               ejuwcc-sVES-MWWB-3Mup-n1wB-Kd0g-u7jm0H

###############################################################################
行任务令lvcreate来创造xfsgroup00组大小为1G的名字为xfsdata的LV

[[email protected] zhongq]# lvcreate -L 1024M -n xfsdata xfsgroup00
WARNING: xfs signature detected on /dev/xfsgroup00/xfsdata at offset 0. Wipe it? [y/n] y
  Wiping xfs signature on /dev/xfsgroup00/xfsdata.
  Logical volume "xfsdata" created
[[email protected] zhongq]# lvdisplay
  --- Logical volume ---
  LV Path                /dev/centos/swap
  LV Name                swap
  VG Name                centos
  LV UUID                EnW3at-KlFG-XGaQ-DOoH-cGPP-8pSf-teSVbh
  LV Write Access        read/write
  LV Creation host, time localhost, 2014-08-18 20:15:25 +0800
  LV Status              available
  # open                 2
  LV Size                2.03 GiB
  Current LE             520
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0

  --- Logical volume ---
  LV Path                /dev/centos/root
  LV Name                root
  VG Name                centos
  LV UUID                zmZGkv-Ln4W-B8AY-oDnD-BEk2-6VWL-L0cZOv
  LV Write Access        read/write
  LV Creation host, time localhost, 2014-08-18 20:15:26 +0800
  LV Status              available
  # open                 1
  LV Size                22.48 GiB
  Current LE             5754
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:1

  --- Logical volume ---
  LV Path                /dev/xfsgroup00/xfsdata
  LV Name                xfsdata
  VG Name                xfsgroup00
  LV UUID                O4yvoY-XGcD-0zPm-eilR-3JJP-updU-rRCSlJ
  LV Write Access        read/write
  LV Creation host, time localhost.localdomain, 2014-09-23 15:50:19 +0800
  LV Status              available
  # open                 0
  LV Size                1.00 GiB
  Current LE             256
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:3

###############################################################################
格式化分区为xfs文件系统。
小心:xfs被创立后,其size将不大概缩短,但足以经过xfs_growfs来增大

[[email protected] zhongq]# mkfs.xfs /dev/xfsgroup00/xfsdata 
meta-data=/dev/xfsgroup00/xfsdata isize=256    agcount=4, agsize=65536 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=0
data     =                       bsize=4096   blocks=262144, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=0
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

###############################################################################
挂载xfs系统一分配区到内定目录,并通过参数uquota,gquota开启文件系统分配的定额。

[[email protected] zhongq]# mkdir /xfsdata
[[email protected] zhongq]# mount -o uquota,gquota /dev/xfsgroup00/xfsdata /xfsdata
[[email protected] zhongq]# chmod 777 /xfsdata
[[email protected] zhongq]# mount|grep xfsdata
/dev/mapper/xfsgroup00-xfsdata on /xfsdata type xfs (rw,relatime,attr2,inode64,usrquota,grpquota)

###############################################################################
使用xfs_quota命令来查阅分配的定额消息以致为客户和目录分配分配的定额,并表达分配的定额约束是不是见到效果。

[[email protected] zhongq]# xfs_quota -x -c 'report' /xfsdata
User quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
User ID          Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]

Group quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
Group ID         Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]

[[email protected] zhongq]# xfs_quota -x -c 'limit bsoft=100M bhard=120M zhongq' /xfsdata
[[email protected] zhongq]#xfs_quota -x -c 'report' /xfsdata
User quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
User ID          Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]
zhongq              0     102400     122880     00 [--------]

Group quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
Group ID         Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]

[[email protected] zhongq]# su zhongq
[[email protected] ~]$ dd if=/dev/zero of=/xfsdata/zq00 bs=1M count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 28.9833 s, 3.6 MB/s
[[email protected] ~]$ dd if=/dev/zero of=/xfsdata/zq01 bs=1M count=100
dd: error writing ‘/xfsdata/zq01’: Disk quota exceeded
21+0 records in
20+0 records out
20971520 bytes (21 MB) copied, 4.18921 s, 5.0 MB/s

[[email protected] ~]$ exit

[[email protected] zhongq]# xfs_quota 
xfs_quota> help
df [-bir] [-hn] [-f file] -- show free and used counts for blocks and inodes
help [command] -- help for one or all commands
print -- list known mount points and projects
quit -- exit the program
quota [-bir] [-gpu] [-hnNv] [-f file] [id|name]... -- show usage and limits

Use 'help commandname' for extended help.
xfs_quota> print
Filesystem          Pathname
/                   /dev/mapper/centos-root
/boot               /dev/sda1
/var/lib/docker     /dev/mapper/centos-root
/xfsdata            /dev/mapper/xfsgroup00-xfsdata (uquota, gquota)
xfs_quota> quota -u zhongq
Disk quotas for User zhongq (1000)
Filesystem                        Blocks      Quota      Limit  Warn/Time      Mounted on
/dev/mapper/xfsgroup00-xfsdata    122880     102400     122880   00  [6 days]   /xfsdata

###############################################################################
先使用命令lvextend将LV扩张为1.5G(伊始体积是1G),然后利用命令xfs_growfs来对xfs文件系统扩大体积(这里以block计数卡塔 尔(英语:State of Qatar)

[[email protected] zhongq]# lvextend -L 1.5G /dev/xfsgroup00/xfsdata 
  Extending logical volume xfsdata to 1.50 GiB
  Logical volume xfsdata successfully resized

[[email protected] zhongq]# xfs_growfs /dev/xfsgroup00/xfsdata -D 393216
meta-data=/dev/mapper/xfsgroup00-xfsdata isize=256    agcount=4, agsize=65536 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=0
data     =                       bsize=4096   blocks=262144, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=0
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 262144 to 393216

[[email protected] zhongq]# df -h|grep xfsdata
/dev/mapper/xfsgroup00-xfsdata  1.5G  153M  1.4G  10% /xfsdata

提醒有三个G的分配的定额 正是运用的流量用光了.只有1个G 

实验

  1.添加一块硬盘/dev/sdb,大小20G,
也能够用大学一年级点的硬盘,分区成20G

 

1.  [root@linuxidc-pc ~]#lsblk /dev/sdb     

2.  NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT   

3.  sdb    8:16   0  20G  0 disk   

 

  2. 格式化硬盘(假诺您利用分区,就径直格式化分区卡塔 尔(英语:State of Qatar)

 

1.  [root@linuxidc-pc ~]#mkfs.ext4 /dev/sdb   

  3.  创设挂载目录

 

1.  [root@linuxidc-pc ~]#mkdir /mnt/sdb 

 

  4. 挂载文件系统

 

  改良/etc/fstab目录,把/dev/sdb
挂载上,注意加多usrquota挂载选项,该选项意为援救客商分配的定额

1.  UUID=fa2f12ad-6195-47fe-8792-a8a9000cd44c /   ext4  defaults  1 1 

2.  UUID=cd3afad0-4731-442d-8fc2-d9ae95f1a1cc /boot   ext4   defaults   
1 2 

3.  UUID=6afc5ea4-27c7-4d52-bd0f-ca410a2da379 /home  ext4   defaults 
1 2 

4.  UUID=daaff10f-aa8b-43d8-bc06-e4b82a905886 /mnt/sdb  ext4  usrquota 
 0 0 

 

 

  使用mount –a 让挂载生效,使用df –h 命令查看是或不是见到效果

 

1.  [root@linuxidc-pc ~]#df -h 

2.  Filesystem      Size  Used Avail Use% Mounted on 

3.  /dev/sda6       166G  3.6G  154G   3% / 

4.  tmpfs           491M   72K  491M   1% /dev/shm 

5.  /dev/sda1       190M   34M  147M  19% /boot 

6.  /dev/sda2        20G   44M   19G   1% /data 

7.  /dev/sda3       9.8G  130M  9.1G   2% /home 

8.  /dev/sdb         20G   44M   19G   1% /mnt/sdb 

//第8行展现 /dev/sdb文件系统已挂载在/mnt/sdb目录上

 

  5. 对/mnt/sdb设置配置配额,终于快贴近尾声了,-> ->

       

    • 初阶化分配的定额数据库

1.    [root@linuxidc-pc ~]#quotacheck /mnt/sdb/ 

    • 翻看数据库是或不是生成成功,是不是生成aquota.user文件

1.    [root@linuxidc-pc sdb]#ls /mnt/sdb/ 

2.  aquota.user  lost+found 

    • 编写制定配置数据库
    •  设置linuxidc的安顿分配的定额

 

1.  [root@linuxidc-pc sdb]#edquota linuxidc 

 

1.  Disk quotas for user linuxidc (uid 500): 

2.    Filesystem   blocks   soft   hard   inodes     soft     hard 

3.    /dev/sdb       0     50000   60000     0       30        40 


设置:使用block数目达到50000kb时,发送警报,达到60000kb时,禁绝增加内容

#  相通,当inode使用数据达到30,发送警报,达到40,防止新建文件

Filesystem: 文件系统

blocks:已运用的块大小,以kb为单位

inode:已利用的inode个数

soft:块设备(或inode)使用数据,预先警告额度   

hard: 块设备(或inode卡塔 尔(阿拉伯语:قطر‎使用数据,制止额度

 

    • 开启配置限额

1.  [root@linuxidc-pc sdb]#quotaon /dev/sdb   

 

 

实验景况:
CentOS7.3

centos7中xfs 是什格式

和ext3 ext4同样 是生龙活虎种文件系统,不过被喻为海量存款和储蓄
属性相比较see also
www.cnblogs.com/…7.html
 

测试

  • 在/mnt/sdb/目录下开创linuxidc_f/目录,且属主为linuxidc,切换成linuxidc用

 

1.  [linuxidc@linuxidc-pc sdb]$pwd            #  查看当前目录

2.  /mnt/sdb                       

3.  [linuxidc@linuxidc-pc sdb]$whoami      #  
查看当前客商,必需是布局分配的定额设定的客户

4.  linuxidc 

5.  [linuxidc@linuxidc-pc sdb]$ll         

6.      # 
查看linuxidc客户能够应用的目录,确认保障linuxidc可以在该目录或其子目录中写入数据

7.  total 28 

8.  -rw——- 1 root  root   7168 Apr 17 17:43 aquota.user 

9.  drwx—— 2 root  root  16384 Apr 17 17:07 lost+found 

  1. drwxr-xr-x 2 linuxidc linuxidc  4096 Apr 17 18:05 linuxidc_f  #
    该目录属主为linuxidc

  2. [linuxidc@linuxidc-pc sdb]$cd linuxidc_f/ 

 

  • 动用edquota USE中华V 能够查看、设置顾客USEEnclave的分配的定额限度和使用进程

 

1.  [linuxidc@linuxidc-pc linuxidc_f]$edquota linuxidc 

 

  查看结果

1.  Disk quotas for user linuxidc (uid 500): 

2.    Filesystem    blocks       soft       hard     inodes     soft   
 hard 

3.    /dev/sdb      4           50000      60000          2       30   
   40 

4.  # block设备使用量为4kb

 

  •  品尝创造file文件,并写入40M数量

 

1. 
[linuxidc@linuxidc-pc linuxidc_f]$dd if=/dev/zero of=file bs=1M count=40 

2.  40+0 records in 

3.  40+0 records out 

4.  41943040 bytes (42 MB) copied, 0.0380665 s, 1.1 GB/s 

5.  ## 使用dd命令写文本,创设贰个文本file,写入1M*40=40M文件,写入成功

 

    查看分配的定额限度和动用进程

5.  Disk quotas for user linuxidc (uid 500): 

6.    Filesystem    blocks       soft       hard     inodes     soft   
 hard 

7.    /dev/sdb      40964      50000      60000          2       30     
 40 

8.  ## 使用了40964kb

 

 

 

  • 品味创设file文件,并写入50M数据

1. 
[linuxidc@linuxidc-pc linuxidc_f]$dd if=/dev/zero of=file bs=1M count=50 

2.  sdb: warning, user block quota exceeded. 

3.  50+0 records in 

4.  50+0 records out 

5.  52428800 bytes (52 MB) copied, 0.046946 s, 1.1 GB/s 

6.  # 写入1M*50=50M文件成功,但发生警报warning

  查看分配的定额限度和动用进度

1.  Disk quotas for user linuxidc (uid 500): 

2.    Filesystem      blocks    soft       hard     inodes     soft   
 hard 

3.    /dev/sdb        51204      50000      60000          2       30   
   40 

4.   ## 使用额度51204kb,超越预先警示额度 当时要么能够写入文件的

5.     

 

  • 品味创制file文件,并写入60M数据

 

1. 
[linuxidc@linuxidc-pc linuxidc_f]$dd if=/dev/zero of=file bs=1M count=60 

2.  sdb: warning, user block quota exceeded. 

3.  sdb: write failed, user block limit reached. 

4.  dd: writing `file’: Disk quota exceeded 

5.  59+0 records in 

6.  58+0 records out 

7.  61435904 bytes (61 MB) copied, 0.101161 s, 607 MB/s 

8.  #  彰显写入60M数目退步 

 

查看quota分配的定额使用量:

1.  Disk quotas for user linuxidc (uid 500): 

2.      Filesystem   blocks       soft       hard     inodes     soft   
 hard 

3.      /dev/sdb       60000      50000      60000          2       30 
     40 

尝试往file中写入内容:

1.  [linuxidc@linuxidc-pc linuxidc_f]$echo “heih” >> file   

2.  -bash: echo: write error: Disk quota exceeded    #  写入错误

3.  [linuxidc@linuxidc-pc linuxidc_f]$touch a                # 
创设文件成功

4.  [linuxidc@linuxidc-pc linuxidc_f]$ 

 

本来也能够测量试验inode使用数据,这里不再赘述。

实验内容:
生龙活虎、迁移home到独门分区
二、对客户设定分配的定额

对此LINUX中的XFS文件系统难点

先用命令看生机勃勃看内核协理XFS文件系统吧?
grep “CONFIG_XFS_FS” /boot/config-*

拜候上面一条命令的出口是哪些?笔者的计算机是显得如下 :
[[email protected]
~]# grep “CONFIG_XFS_FS” /boot/config-*
/boot/config-2.6.18-348.1.1.el5:CONFIG_XFS_FS=m
/boot/config-2.6.18-348.el5:CONFIG_XFS_FS=m
 

XFS是增添性高、高品质的文件系统。也是rhel7/centos7的暗中认可文件系统。
XFS扶助metadata journaling,那使其能从crash中…

总结

  1. 计划配额是为着越来越好的分配文件系统使用空间,而对普通客户或群组限定使用额度。
  2. 配备分配的定额是基于挂载文件来讲,即必得使用挂载选项usrquota and/or
    grpquota。
  3. 配置配额能够独自限于普通顾客,也得以单独限于群组,也得以并且对群组和客商展开界定。
  4. 陈设分配的定额能够对文件大小(block卡塔 尔(阿拉伯语:قطر‎进行界定,也能够对文本数量(inode卡塔 尔(英语:State of Qatar)举行限制

本文长久更新链接地址:http://www.linuxidc.com/Linux/2017-10/148086.htm

图片 1

尝试命令:

  • lsblk、fdisk、mkfs.ext4、blkid、cp、du、vim、mount
  • setenforce、quotaon、edquota、su、dd

意气风发、迁移home到独门分区

You can leave a response, or trackback from your own site.

Leave a Reply

网站地图xml地图