Ads 468x60px

Featured Posts Coolbthemes

วันศุกร์ที่ 11 พฤศจิกายน พ.ศ. 2554

Solaris10 - notes

Solaris10 - notes


Changing IP address

/etc/hosts
/etc/hostname.bge0
/etc/resolv.conf
/etc/netmasks
/etc/nodename
/etc/defaultrouter
/etc/inet/ipnodes

TFTPd setup

In  /etc/inetd.conf - uncommented the line
TFTPD - tftp server
tftp dgram udp6 wait root /usr/sbin/in.tftpd in.tftpd -s /tftpboot
Run these commands to convert inetd.conf entries into smf service manifests, import them into smf repository and check its taken

root# inetconv
root# svcs | grep tftp
online 16:15:58 svc:/network/tftp/udp6:default

  • Enable using inetadm -e svc:/network/tftp/udp6
  • Disable with inetadm -d svc:/network/tftp/udp6

Wrap the service to only allow from SWERN address space

Solaris 10 comes with TCP Wrappers included: Enable using:

inetadm -M tcp_wrappers=true
svcadm refresh inetd


Check using

# svcprop -p defaults inetd
defaults/tcp_wrappers boolean true 

Can also set for inetd-based services using

svccfg -s inetd setprop defaults/tcp_wrappers=true
svcadm refresh inetd

 /etc/hosts.allow and /etc/hosts.deny now configures as usual.
 All fine - except this doesn't work for TFTP
Use IPfilters instead

mantoo IP addresses

 e1000g0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 5
        inet 194.83.94.62 netmask ffffffc0 broadcast 194.83.94.63
        ether 0:14:4f:4a:7:3e
nge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
        inet 192.168.243.182 netmask fffffc00 broadcast 192.168.243.255
        ether 0:14:4f:4a:7:3c

ifconfig e1000g0 194.83.94.62 netmask 255.255.255.192
ifconfig e1000g0 broadcast 194.83.94.63
 

เปิด FTP Server ใน Solaris 10

เปิด FTP Server ใน Solaris 10

วิธีการเปิด FTP Server ใน Solaris 10 นั้นค่อยข้างง่ายครับ
เนื่องจากโดยปกติการติดตั้ง Solaris 10 นั้นจะติดตั้ดตั้งตัว FTP Server มาให้พร้อมอยู่แล้ว

1.ลองใช้คำสั่งในการตรวจสอบ ดูก่อนว่าในเครื่องเรามี FTP Server อยู่หรือไม่
# inetadm -l network/ftp    ซึ่งคำสั่งนี้ใช้ในการตรวจสอบ status ของ service ครับ

2.จากนั้นใช้คำสั่ง svcadm เพื่อจัดการ service
ซึ่งมีรูปแบบตามนี้ครับ svcadm [operation] serivce_name
เช่น # svcadm enable network/ftp    //คำสั่งในการเปิด service
# svcadm restart network/ftp    //คำสั่งในการ restart service

3.ส่วนการจัดการเกี่ยวกับในส่วนของ user ที่จะ login เข้ามานั้นจะใช้ user ชุดเดียวกับ OS ครับ (รวมทั้ง Home Dir ด้วย ดูที่ /etc/passwd)

แต่เราสามารถกำหนดกฏ หรือการ Block ได้ดังนี้ครับ
3.1 การ block user นั้นสามารถเลือก block ได้โดยใส่ user name ของ user ที่เราต้องการ block ลงในไฟล์ /etc/ftpd/ftpusers
3.2 กฏต่างของ FTP Server จะอยู่ในไฟล์ /etc/ftpd/ftpaccess

Ssh in Solaris

Ssh in Solaris 

This post is about service ssh in solaris 9 or 10

Solaris 9
Disable service ssh ?

bash>  /etc/init.d/sshd stop
bash> /etc/rc3.d/S89sshd stop
 
Enable service ssh ?

bash> /etc/init.d/sshd start
bash> /etc/rc3.d/S89sshd start
 
Refresh service ssh ?

bash> kill -HUP `cat /var/run/sshd.pid`
 
Solaris 10
First you can check service ssh with command

bash> svcs | grep ssh
online         Jan_21   svc:/network/ssh:default
 
If status ssh offline, you can make online with command:

bash> svcadm enable -t network/ssh:default
bash> /lib/svc/method/sshd start
 
Disable service ssh ?

bash> svcadm disable -t network/ssh:default
 
Restart service ssh ?

bash> svcadm restart network/ssh:default
bash> /lib/svc/method/sshd restart
 
Refresh service ssh ?

bash> svcadm refresh network/ssh:default
 
For a root enable connect to host via ssh service

bash> vi /etc/ssh/sshd_config
[....]
# Valid options are yes, without-password, no.
PermitRootLogin no
[....]
 
Replace no with yes, after that save the edited configuration.
Don't forget for the restart service ssh, after edit configuration.

วันจันทร์ที่ 10 ตุลาคม พ.ศ. 2554

เปรียบเทียบ RAID-0 จากคำสั่ง mdadm และ lvm ตอนที่ 3

เปรียบเทียบ RAID-0 จากคำสั่ง mdadm และ lvm ตอนที่ 3
ในตอนสุรปนี้ จะเพิ่มผลลัพธ์จากการรันคำสั่ง sysbench เพื่อทดสอบ fileio ทั้งการอ่านและเขียนไฟล์แบบ sequential, random

ก่อนการรัน sysbench เพื่อทดสอบ ต้องสร้างไฟล์ (prepare) ใน mount point ของ filesystem ที่ต้องการทดสอบ เช่นถ้า mount ไว้ที่ /mnt/lv0/ ต้อง cd เข้าไปในพาธนี้แล้วรันคำสั่ง
[root@fc10-disk ~]# cd /mnt/lv0/
[root@fc10-disk lv0]# sysbench --test=fileio prepare
Sequential Read test (seqrd) รันคำสั่ง
[root@fc10-disk ~]# sysbench --test=fileio --file-test-mode=seqrd run
Sequential Write test (seqwr) รันคำสั่ง
[root@fc10-disk ~]# sysbench --test=fileio --file-test-mode=seqwr run
Random Read test (rndrd) รันคำสั่ง
[root@fc10-disk ~]# sysbench --test=fileio --file-test-mode=rndrd run
Random Write test (rndwr) รันคำสั่ง
[root@fc10-disk ~]# sysbench --test=fileio --file-test-mode=rndwr run
ผลลัพธ์การรันคำสั่ง dd ในตอนที่ผ่านมา จะใกล้เคียงกับการรัน Sequential Write test
ตารางสรุปผลการทดสอบ

/dev/sdc1 /dev/sdd1 mdadm linear mdadm stripe LVM linear LVM stripe
xfs (blocks) 195,263,012 195,263,012 390,585,600 390,585,344 390,578,176 390,577,152
dd (MB/s) 52.00 47.10 52.70 96.50 51.80 94.80
seqrd (MB/s) 58.08 60.71 57.71 115.78 58.22 104.64
seqrw (MB/s) 43.76 38.96 46.89 85.04 47.92 84.15
rndrd (MB/s) 3.92 3.96 3.92 4.34 3.97 4.31
rndwr (MB/s) 0.61 0.69 2.88 2.08 2.91 2.08
คงไม่สรุปใดๆ ทั้งสิ้น เกี่ยวกับผลลัพธ์ที่ได้ ว่าคอนฟิก mdadm หรือ lvm เร็วกว่ากัน เพราะตัวเลขออกมาใกล้เคียงกัน อีกทั้งการทดสอบนี้ อาจไม่ตรงกับหลักการทางสถิติ เช่น ทดลองรันไม่กี่ครั้ง หรือในขณะที่รันทดสอบอาจมี process อื่นๆ ในเครื่องรันขึ้นมาทำงาน (ทั้งๆ ที่พยายามลดให้เหลือน้อยที่สุดแล้ว) และด้วยคุณสมบัติของ mdadm และ LVM ที่แตกต่างกัน ทางเลือกคงขึ้นอยู่กับลักษณะการใช้งานของแต่ละเครื่องว่าเป็นอย่างไร …
แต่…ถ้าให้เลือก ความเห็นส่วนตัว ผมเลือก LVM ครับ

เปรียบเทียบ RAID-0 จากคำสั่ง mdadm และ lvm ตอนที่ 2

เปรียบเทียบ RAID-0 จากคำสั่ง mdadm และ lvm ตอนที่ 2
ในตอนแรก เปรียบเทียบ RAID-0 จากคำสั่ง mdadm และ lvm ตอนที่ 1 เราได้ทดลองใช้คำสั่ง mdadm เพื่อคอนฟิกดิสก์เป็นแบบ linear และ stripe ซึ่งให้ผลลัพธ์ความเร็วในการเขียนข้อมูลแตกต่างกัน ในตอนนี้จะลองใช้คำสั่ง LVM บ้าง เพื่อสร้างคอนฟิกแบบ linear และ stripe เพื่อเป็นการเปรียบเทียบกัน

สร้าง LVM Physical Volume และ Volume Group

ก่อนอื่นเราต้องคอนฟิกดิสก์แต่ละพารทิชั่น ทำเป็น Physical Volume และ Volume Group สุดท้ายค่อยเลือกว่าจะสร้าง Logical Volume เป็นแบบ linear หรือ stripe
[root@fc10-disk ~]# pvcreate /dev/sdc1 /dev/sdd1
  Wiping software RAID md superblock on /dev/sdc1
  Physical volume "/dev/sdc1" successfully created
  Wiping software RAID md superblock on /dev/sdd1
  Physical volume "/dev/sdd1" successfully created
ตรวจสอบสถานะของ physical volume
[root@fc10-disk ~]# pvdisplay
  "/dev/sdc1" is a new physical volume of "186.31 GB"
  --- NEW Physical volume ---
  PV Name               /dev/sdc1
  VG Name
  PV Size               186.31 GB
  Allocatable           NO
  PE Size (KByte)       0
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               ...
  "/dev/sdd1" is a new physical volume of "186.31 GB"
  --- NEW Physical volume ---
  PV Name               /dev/sdd1
  VG Name
  PV Size               186.31 GB
  Allocatable           NO
  PE Size (KByte)       0
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               ...
คอนฟิกรวมทั้งสอง physical volume สร้างเป็น volume group เดียวกัน
[root@fc10-disk ~]# vgcreate VG_1 /dev/sdc1 /dev/sdd1
  Volume group "VG_1" successfully created
ตรวจสอบสถานะของ volume group
[root@fc10-disk ~]# vgdisplay
  --- Volume group ---
  VG Name               VG_1
  System ID
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               372.61 GB
  PE Size               4.00 MB
  Total PE              95388
  Alloc PE / Size       0 / 0
  Free  PE / Size       95388 / 372.61 GB
  VG UUID               ...

คำสั่ง lvcreate สร้าง logical volume แบบ linear

คอนฟิกนี้จะใช้คำสั่ง lvcreate เพื่อสร้างดิสก์สองก้อนเป็นแบบ linear ซึ่งหลักการเขียนข้อมูลจะเหมือนกันคือ ข้อมูลจะถูกเขียนลงบนตัวแรกให้เต็มก่อนแล้วค่อยเขียนตัวถัดไป
การระบุออปชั่น –extents 100%free คือให้ใช้พื้นที่ทั้งหมดของ volume group สร้างเป็น logical volume
[root@fc10-disk ~]# lvcreate --extents 100%free VG_1 --name LV_0
  Logical volume "LV_0" created
ผลลัพธ์ที่ได้จะสร้าง logical volume ชื่อ /dev/VG_1/LV_0 ขึ้นมา ซึ่งเรานำมาสร้าง filesystem แล้วมา mount ใช้งานได้
รันคำสั่ง lvdisplay ตรวจสอบสถานะของดิสก์
[root@fc10-disk ~]# lvdisplay --maps
  --- Logical volume ---
  LV Name                /dev/VG_1/LV_0
  VG Name                VG_1
  LV UUID                eOdh1C-nSw3-wLjd-fuPz-Y6HA-rNvU-nWaOfY
  LV Write Access        read/write
  LV Status              available
  # open                 0
  LV Size                372.61 GB
  Current LE             95388
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
  --- Segments ---
  Logical extent 0 to 47693:
    Type                linear
    Physical volume     /dev/sdc1
    Physical extents    0 to 47693
  Logical extent 47694 to 95387:
    Type                linear
    Physical volume     /dev/sdd1
    Physical extents    0 to 47693
สร้าง filesystem เป็นแบบ xfs และ mount เข้ากับพาธที่สร้าง
[root@fc10-disk ~]# mkfs.xfs -f /dev/VG_1/LV_0
[root@fc10-disk ~]# mkdir /mnt/lv0
[root@fc10-disk ~]# mount /dev/VG_1/LV_0 /mnt/lv0
ดูขนาดของ filesystem ที่สร้างได้
[root@fc10-disk ~]# cd /mnt/lv0/
[root@fc10-disk lv0]# df -k .
Filesystem           1K-blocks      Used Available Use% Mounted on
/dev/mapper/VG_1-LV_0
                     390578176      4256 390573920   1% /mnt/lv0
ทดสอบการเขียนไฟล์ขนาด 2 GB บนคอนฟิก “linear”
[root@fc10-disk lv0]# dd if=/dev/zero of=file-2g.bin bs=1000000 count=2000
2000+0 records in
2000+0 records out
2000000000 bytes (2.0 GB) copied, 38.6144 s, 51.8 MB/s
ความเร็วที่ได้จะใกล้เคียงกับการเขียนไฟล์ลงดิสก์ก้อนเดียว
ยกเลิกการ mount ดิสก์ และลบ logical volume แบบ linear
[root@fc10-disk lv0]# cd
[root@fc10-disk ~]# umount /mnt/lv0
[root@fc10-disk ~]# lvremove /dev/VG_1/LV_0
Do you really want to remove active logical volume "LV_0"? [y/n]: y
  Logical volume "LV_0" successfully removed

คำสั่ง lvcreate สร้าง logical volume แบบ stripe

คอนฟิกนี้จะใช้คำสั่ง lvcreate เพื่อสร้าง logical volume เป็นแบบ stripe เพื่อให้เวลาเขียนข้อมูลแยกการเขียนลงดิสก์ทั้งสองก้อนพร้อมๆ กัน ทำให้ความเร็วที่ได้เพิ่มขึ้น
ในที่นี้เราต้องระบุจำนวน stripe หรือจำนวนดิกส์ที่จะเขียนข้อมูลพร้อมๆ กัน ในที่นี้เรามี physical volume อยู่ 2 ก้อน ก็ระบุเป็นตัวเลข 2
[root@fc10-disk ~]# lvcreate --extents 100%free --stripes 2 VG_1 --name LV_0
  Using default stripesize 64.00 KB
  Logical volume "LV_0" created
ตรวจสอบสถานะของ logical volume แบบ stripe
[root@fc10-disk ~]# lvdisplay --maps
  --- Logical volume ---
  LV Name                /dev/VG_1/LV_0
  VG Name                VG_1
  LV UUID                JJuw2a-4C6O-4DED-jqCO-qTRF-iDw0-VPeatg
  LV Write Access        read/write
  LV Status              available
  # open                 0
  LV Size                372.61 GB
  Current LE             95388
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           253:0
  --- Segments ---
  Logical extent 0 to 95387:
    Type                striped
    Stripes             2
    Stripe size         64 KB
    Stripe 0:
      Physical volume   /dev/sdc1
      Physical extents  0 to 47693
    Stripe 1:
      Physical volume   /dev/sdd1
      Physical extents  0 to 47693
สร้าง filesystem เป็นแบบ xfs และ mount เข้ากับพาธที่สร้างไว้
[root@fc10-disk ~]# mkfs.xfs -f /dev/VG_1/LV_0
[root@fc10-disk ~]# mount /dev/VG_1/LV_0 /mnt/lv0
ดูขนาดของ filesystem ที่สร้างได้
[root@fc10-disk ~]# cd /mnt/lv0/
[root@fc10-disk lv0]# df -k .
Filesystem           1K-blocks      Used Available Use% Mounted on
/dev/mapper/VG_1-LV_0
                     390577152      4640 390572512   1% /mnt/lv0
ทดสอบการเขียนไฟล์ขนาด 2 GB บนคอนฟิก “linear”
[root@fc10-disk lv0]# dd if=/dev/zero of=file-2g.bin bs=1000000 count=2000
2000+0 records in
2000+0 records out
2000000000 bytes (2.0 GB) copied, 21.0913 s, 94.8 MB/s
ความเร็วที่ได้ใกล้เคียงกับผลรวมของความเร็วในการเขียนข้อมูลลงดิสก์แต่ละก้อน
ยกเลิกการ mount ดิสก์ และลบ logical volume แบบ “stripe”
[root@fc10-disk lv0]# cd
[root@fc10-disk ~]# umount /mnt/lv0
[root@fc10-disk ~]# lvremove /dev/VG_1/LV_0
Do you really want to remove active logical volume "LV_0"? [y/n]: y
  Logical volume "LV_0" successfully removed

ลบ LVM Volume Group, Physical Volume

หลังจากทดสอบเรียบร้อย ถ้าต้องการลบคอนฟิก LVM ออกสามารถทำได้ดังนี้
ใช้คำสั่ง vgremove เพื่อลบ Volume Group
[root@fc10-disk ~]# vgremove /dev/VG_1
  Volume group "VG_1" successfully removed
ใช้คำสั่ง pvremove เพื่อลบ physical volume
[root@fc10-disk ~]# pvremove /dev/sdc1 /dev/sdd1
  Labels on physical volume "/dev/sdc1" successfully wiped
  Labels on physical volume "/dev/sdd1" successfully wiped

Blogger templates