freebsd 8.2 で ports の vim が入らない
2011/04/19時点の話です。 /usr/ports/editor/vim で make install すると gobject-introspection-0.9.12 のインストールがコケる。 結論を言うと、py… 続きを読む »freebsd 8.2 で ports の vim が入らない
2011/04/19時点の話です。 /usr/ports/editor/vim で make install すると gobject-introspection-0.9.12 のインストールがコケる。 結論を言うと、py… 続きを読む »freebsd 8.2 で ports の vim が入らない
今回はコマンドログだけで行きます。
まず、VMware vSphere CLI をダウンロードします。適当にググってインストールしてください。
もうひとつアップデートファイルをダウンロードします。 update-from-esxi4.1-4.1_update01.zip です。
これをどこでもいいのですがパスの判るところに起きます。自分は Cドライブのルートに起きました。
前準備で、VMware vSphere Client にて全ての仮想サーバを停止し、メンテナンスモードに切り替えます。
そうしたら、VMware vSphere CLIを起動します。
サンプルサーバは Dell PowerEdge R415 、4.1の初期版をインストールした直後です。
自ホストは 192.168.0.11 です。
まずは初期状態の確認。
C:\Program Files (x86)\VMware\VMware vSphere CLI>vicfg-hostops.pl –server 192.168.0.11 –operation info
Enter username: root
Enter password:Host Name : localhost.localdomain
Manufacturer : Dell Inc.
Model : PowerEdge R415
Processor Type : AMD Opteron(tm) Processor 4180
CPU Cores : 6 CPUs x 2600 GHz
Memory Capacity : 8181.9453125 MB
VMotion Enabled : no
In Maintenance Mode : no
Last Boot Time : 2011-04-18T21:18:37.776097Z
それではアップデートする為にアップデートするファイルを確認します。
C:\Program Files (x86)\VMware\VMware vSphere CLI>vihostupdate.pl –server 192.168.0.11 –scan –bundle c:\update-from-esxi4.1-4.1_update01.zip
Enter username: root
Enter password:
The bulletins which apply to but are not yet installed on this ESX host are listed.———Bulletin ID——— —————-Summary—————–
ESXi410-201101201-SG Updates the ESXi 4.1 firmware
ESXi410-201101202-UG Updates the ESXi 4.1 VMware Tools
ESXi410-201101223-UG 3w-9xxx: scsi driver for VMware ESXi
ESXi410-201101224-UG vxge: net driver for VMware ESXi
ESXi410-Update01 VMware ESXi 4.1 Complete Update 1
問題無いので、アップデートします。
C:\Program Files (x86)\VMware\VMware vSphere CLI>vihostupdate.pl –server 192.168.0.11 –install –bundle c:\update-from-esxi4.1-4.1_update01.zip
Enter username: root
Enter password:
Please wait patch installation is in progress …
The update completed successfully, but the system needs to be rebooted for the changes to be effective.
これで問題なくアップデートされました。
ESXi サーバを再起動して問題ない事を確認したら完了です。
Dellサーバで使える hynix のメモリです。Dell純正もコレなので普通にそのまま使えます。
DellサーバはECCだとしても使えない事があるので、相性がよさげなものを選んだ方がいいと思います。
[rakuten]ecjoy:11245760[/rakuten]
家族に「取り付けて!」と依頼されたので取り付けしてみました。
kakaku.com では評価も高い模様。
amazon で確認すると最安値より198円高いだけ。オマケに送料無料なので、ここでポチッ。
結論から言うと30分もあれば取り付け可能です。自分は写真を撮りながらのんびりやったので1時間程掛かりました。
早速開けてみるとこんな感じ。ひと通りの材料は揃っているようです。
まずは必要工具です。
自分は「モンキーレンチ」「ウオーターポンププライヤー」「マイナスドライバー」「シールテープ」「バケツ」を用意しました。
モンキーは既存の配管を外す為、ウオポンは配管取り付け時の固定用、マイナスドライバーは止水栓の開閉用です。
バケツは既存の配管を取る時に漏れる水の受け皿です。
シールテープは水漏れ防止の為に使います。ゴムパッキンは付属しているので大丈夫だとは思いましたが、長く使う物なのでシーリングはしておくに限ります。
地味ですが漏れを防止すると思えば安いもの。ホームセンタで200円も出せば買えるので、ケチる意味はありません。
まずは既存の便座を外します。止水栓を止めてタンクを空にします。
こんなのですね。中央のネジ穴にマイナスドライバーをつっこんで時計回りに閉めていけば止められます。
ちゃんと止めたら、何度が流しレバーを動かして貯水タンクを空にします。
次は便座の取り外し。
便座の裏側にはこんなネジで止まっていました。これを付属のねじ回し(黒い棒みたいなやつ)で外します。ネジ穴が合わなければ、ウオポンか手で外してください。
自宅の場合、ここが一番の難物で固着していました。外すのに時間が掛かったのは秘密です。
両方ともボルトを外せば後は簡単。上に持ち上げれば便座が取れました。
そこに温水洗浄便座を取り付けるステーをつけます。
図の通りです。
ここはいきなり固定しないで、少し緩めにボルト止めしてください。実際の便座を取り付けた際に位置を前後させたくなるはずです。
次は既存配管の脱着です。
モンキーでぐるぐる回せば取れます。その際にバケツを下に置いておきましょう。配管内に溜まった水が漏れます。
元々ついていた配管はいらないので捨ててしまいましょう。
次は分岐配管の取り付け。
写真のようにゴムパッキンを中に入れます。これが無いと漏れます。
ネジ部分にはシールテープを巻きました。ぐるぐる巻く必要はありません。ひと巻きふた巻で十分です。
既存の配管とドッキング。何の問題もありません。
ちなみにタンク側にもシールテープを巻きました。
配管の取り付け。
正直ちょっと長いです。殆どの家庭では新規で延長配管を購入する必要は無いと思います。
配管にストレスを掛けないように折れ曲がらないように気をつけます。
そうしたら便座をステーに取り付けます。
ここ写真が無いのですが、そのまま押しこめば固定されます。固定したら位置を合わせてください。
ちょっと持ち上げれば多少前後左右に動きます。
いい位置になったら便座裏側のボルトを閉めて固定します。
次は分岐配管から便座へ配管を取り付けます。
便座の配管位置は図の通り。やっぱり配管がめちゃめちゃ余ります。
便座側の取り付け口は90度自由に角度を変えられるのがとても便利。
自分は配管の長さをたるませるのが嫌だったので、ループさせてタイラップで固定しました。
ここでも配管にストレスを掛けないように注意してください。
まずは止水栓を少しずつ開けてタンクに水を貯めます。
その際に配管類から水が漏れていないか確認してください。
漏れていた場合には、即座に止水栓を止めて対策を。
問題が無ければ、そのまま水が止まるまで待ちます。
便座の電源コードを入れ、アース線を取り付けます。
アース線の取り付け場所が無ければ、漏電遮断器を別途購入してください。
LEDが点滅しているので、「おしり」ボタンを押します。
すると貯水タンクに水が流れます。
5分程待って、マニュアルの通りに試験動作。問題が無ければ以上完了です!
個人的にはこの価格でこれだけの機能が揃っていると文句のつけどころがありません。
多少水の勢いが強いので、痔持ちにはキツいかも知れませんが…
座ってもギシギシいわないのは安心感がありますね。
これ以上を求める、例えば4.8Lエコ洗浄なんかが希望ならタンクごと変えたほうがいいと思います。
それでは、快適なお便所ライフを!
楽天だとこちらが一番お安いかな?
ポイント還元もあるので、トータル的には amazon よりお安いかも知れませんね。
宜しければぽちっとお願いします。
6年前に作った単純な監視スクリプトです。
需要があるかなーと思ったので公開。
RAIDのハードディスク状態をチェックして、エラーになったらメールを送信するものです。
cshが入っていれば、Linuxでもfreebsdでも動作する。はず。
#!/bin/csh
set mailaddress = “メールアドレス”;
set hostfilename = `hostname -f`;rm -rf /tmp/param.log
touch /tmp/param.logset PARAM = `tw_cli info c0 | grep “RAID” | tee -a /tmp/param.log`
if ( `grep “OK” /tmp/param.log ` != “” ) then
echo “ok”
else
echo $PARAM
mail -s “SAKURA HDD Error Report: $hostfilename” $mailaddress < < ERRORTEXT `cat /tmp/param.log` ERRORTEXT endif
「メールアドレス」は警告を送りたいメールアドレスを記載してね。
適当な名前で保存して、chmod すれば動作します。
ただ古いサーバなので最近のさくらサーバでは動作しない可能性があります。
tw_cli info c0
と打ってみて反応があれば使えます。
tw_cli の戻り文字列が違う可能性もあるので、その場合にも同様にコマンドを打ってみてください。
# of units: 1
Unit 0: RAID 1 153.38 GB ( 321670912 blocks): OK
この文字列を引っ掛けてるので、「OK」とか「RAID」とかの文字列が戻るかどうか確認してください。
最終的に「OK」があれば正常、無ければ何かの異常って事でメールを飛ばします。
後は cron に
0 */4 * * *
って感じで定期登録すれば監視されます。
[PR]
2TBのHDDがすごく安くなりましたね。
自宅で3台、仕事では12台買っていますが今のところ初期不良ナシです。
もしよかったらぽちっとお願いします。
[rakuten]pc-goodmedia:10000047[/rakuten]
ext4 がとうとう実用化されました。
折角なのでファイルサーバを ext4 + Linux SoftRAID1 で構成してみようかと思います。
/sda … 400GB
/sdb … 2TB
/sdc … 2TB
/sdd … 2TB
こんな構成で、sdc と sdd をRAID化します。
ちなみに hda じゃなく sda なのは、vmware ESXi 上だからです。
(ファイルサーバにサーバリソース使いたくないから)
CentOS 5.5 で ext4を利用するには、yum install e4fsprogs みたいにしてツールをインストールしてあげてください。詳細はぐぐってね。
まずは、sdc を fdisk で領域確保してシステムタイプを Linux RAID にします。
[email protected]/# fdisk /dev/sdc
デバイスは正常な DOS 領域テーブルも、Sun, SGI や OSF ディスクラベルも
含んでいません
新たに DOS ディスクラベルを作成します。あなたが書き込みを決定するまで、変更は
メモリ内だけに残します。その後はもちろん以前の内容は修復不可能になります。このディスクのシリンダ数は 241951 に設定されています。
間違いではないのですが、1024 を超えているため、以下の場合
に問題を生じうる事を確認しましょう:
1) ブート時に実行するソフトウェア (例. バージョンが古い LILO)
2) 別の OS のブートやパーティション作成ソフト
(例. DOS FDISK, OS/2 FDISK)
警告: 領域テーブル 4 の不正なフラグ 0x0000 は w(書き込み)によって
正常になりますコマンド (m でヘルプ): n
コマンドアクション
e 拡張
p 基本領域 (1-4)
p
領域番号 (1-4): 1
最初 シリンダ (1-241951, default 1):
Using default value 1
終点 シリンダ または +サイズ または +サイズM または +サイズK (1-241951, default 241951):
Using default value 241951コマンド (m でヘルプ): t
Selected partition 1
16進数コード (L コマンドでコードリスト表示): fd
領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しましたコマンド (m でヘルプ): w
領域テーブルは交換されました!ioctl() を呼び出して領域テーブルを再読込みします。
ディスクを同期させます。
次に sdd も同様に領域確保します。
[email protected]/# fdisk /dev/sdd
デバイスは正常な DOS 領域テーブルも、Sun, SGI や OSF ディスクラベルも
含んでいません
新たに DOS ディスクラベルを作成します。あなたが書き込みを決定するまで、変更は
メモリ内だけに残します。その後はもちろん以前の内容は修復不可能になります。このディスクのシリンダ数は 241951 に設定されています。
間違いではないのですが、1024 を超えているため、以下の場合
に問題を生じうる事を確認しましょう:
1) ブート時に実行するソフトウェア (例. バージョンが古い LILO)
2) 別の OS のブートやパーティション作成ソフト
(例. DOS FDISK, OS/2 FDISK)
警告: 領域テーブル 4 の不正なフラグ 0x0000 は w(書き込み)によって
正常になりますコマンド (m でヘルプ): n
コマンドアクション
e 拡張
p 基本領域 (1-4)
p
領域番号 (1-4): 1
最初 シリンダ (1-241951, default 1):
Using default value 1
終点 シリンダ または +サイズ または +サイズM または +サイズK (1-241951, default 241951):
Using default value 241951コマンド (m でヘルプ): t
Selected partition 1
16進数コード (L コマンドでコードリスト表示): fd
領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しましたコマンド (m でヘルプ): w
領域テーブルは交換されました!ioctl() を呼び出して領域テーブルを再読込みします。
ディスクを同期させます。
設定が正常になっているか確認。
[email protected]/# fdisk -l
Disk /dev/sda: 42.9 GB, 42949672960 bytes
255 heads, 63 sectors/track, 5221 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytesデバイス Boot Start End Blocks Id System
/dev/sda1 * 1 13 104391 83 Linux
/dev/sda2 14 5221 41833260 8e Linux LVMDisk /dev/sdb: 1932.7 GB, 1932735283200 bytes
255 heads, 63 sectors/track, 234975 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytesデバイス Boot Start End Blocks Id System
/dev/sdb1 * 1 234975 1887436656 83 LinuxDisk /dev/sdc: 1990.1 GB, 1990116046848 bytes
255 heads, 63 sectors/track, 241951 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytesデバイス Boot Start End Blocks Id System
/dev/sdc1 1 241951 1943471376 fd Linux raid 自動検出Disk /dev/sdd: 1990.1 GB, 1990116046848 bytes
255 heads, 63 sectors/track, 241951 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytesデバイス Boot Start End Blocks Id System
/dev/sdd1 1 241951 1943471376 fd Linux raid 自動検出
sdc と sdd がしっかりと Linux RAID になっています。
そうしたら、 md0(RAID Volume) を作成します。
コマンドは mdadm です。
[email protected]/# mdadm –create –assume-clean /dev/md0 –level=raid1 –raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: array /dev/md0 started.
–assume-clean オプションを付けるのは、新規なので再構築不要だからです。これをつけないと、再構築が始まりとても待たされます。
–level=raid1 は mirror オプション。striping なら raid0 です。
作成したら状態確認をします。
[email protected]/# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdc1[0]
1943471296 blocks [2/2] [UU]unused devices:
[email protected]/# mdadm –detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Sat Apr 9 16:16:33 2011
Raid Level : raid1
Array Size : 1943471296 (1853.44 GiB 1990.11 GB)
Used Dev Size : 1943471296 (1853.44 GiB 1990.11 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistentUpdate Time : Sat Apr 9 16:16:33 2011
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0UUID : 60575a3b:ff362399:2ebd512d:292dc9b7
Events : 0.1Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
1 8 49 1 active sync /dev/sdd1
State が clean 、 [UU] なので正常に処理できました。
障害があると、 [U_] とかになったりします。
そうしたら ext4 でフォーマットします。
[email protected]/# /sbin/mkfs.ext4 /dev/md0
mke4fs 1.41.9 (22-Aug-2009)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
121470976 inodes, 485867824 blocks
24293391 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
14828 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
doneThis filesystem will be automatically checked every 33 mounts or
180 days, whichever comes first. Use tune4fs -c or -i to override.
フォーマットが完了しました。
一度マウントをして、問題が無ければ一度 umount します。
例では /data にマウントしています。
[email protected]/# mkdir -p /data
[email protected]/# mount -t ext4 /dev/md0 /data
[email protected]/# df -h
[email protected]/# umount /data
起動時にマウントされるように、fstab に記載して、 mount します。
[email protected]/# vi /etc/fstab
> /dev/md0 /data ext4 defaults 0 0
[email protected]/# mount -av
mount: LABEL=/boot は /boot にマウント済です
mount: devpts は /dev/pts にマウント済です
mount: sysfs は /sys にマウント済です
mount: proc は /proc にマウント済です
/dev/md0 on /data type ext4 (rw)
最後に mdmpd と mdmonitor (RAID監視) を起動するように設定します。
[email protected]/# vi /etc/mdadm.conf
DEVICE /dev/sd[cd]1
ARRAY /dev/md0 devices=/dev/sdc1,/dev/sdd1
MAILADDR 通知したいメールアドレス[email protected]/# chkconfig mdmpd on
[email protected]/# /etc/rc.d/init.d/mdmpd start
[email protected]/# chkconfig mdmonitor on
[email protected]/# /etc/rc.d/init.d/mdmonitor start
ちなみに自宅の ESXi(Core2Duo 6320 + 2GB Mem) + 仮想HDD(sataraid-pci) + 1Gb Ethernet で計測すると、転送速度は 35MB/s (280Mbps)程度はコンスタントに出るようです。
ちなみに自宅サーバではこのUSBメモリからESXiを起動しています。
もしよかったらぽちっとしてあげてください。
[rakuten]bonz:10004776[/rakuten]
必要そうな情報だと思ったので掲載。
RND4000(ReadyNAS Ultra4) + WD20EARS(2TB HDD)
格安S-ATAのHDDとして有名な WESTERN DIGITAL 製のHDD。
これ、利用できました。
HDDも2TB*4という組み合わせで不具合ありません。
7万くらいで X-RAID2利用時に 5.4TB のRAID NASストレージがゲットできます。
ありえないほどのコストパフォーマンスだと思います。
故障率ですが今迄複数台納品しましたが初期不良0。
少し前のモデルは3年間無停止でトラブル無しでした。
楽天最安値はこちらのようです。
[rakuten]pc-express:10313962[/rakuten]