Dell P.E. T105
Dell PowerEdge T105 に Solaris10 7/08 を
いれたのに Ether-Net が認識しない
幾つか確認したら
http://ja.broadcom.com/support/ethernet_nic/downloaddrivers.php
solaris のドライバがあったので
Dell PowerEdge T105 に Solaris10 7/08 を
いれたのに Ether-Net が認識しない
幾つか確認したら
http://ja.broadcom.com/support/ethernet_nic/downloaddrivers.php
solaris のドライバがあったので
ディスクを登録
> # zpool create mypool c1t0d0 c1t2d0
# zpool create mypool mirror c2t0d0 c2t0d1
ディスクでなくファイルを pool する場合には
> # mkfile 20g /disk
> # zpool create mypool /disk
home3 の領域を作成
# zfs create mypool/home3
> zfs create mypool/home
# zfs set mountpoint=/export/home3 mypool/home3
# zfs list
> # zfs set mountpoint=/export/home mypool/home
> #
ディスクの追加
> zpool add mypool c2t3d0
ZFSの切り離し
sparc# zpool export mypool
x86# zpool import mypool
スナップショット
# zfs snapshot mypool/home3/green@snapshot1
バックアップ
# zfs backup mypool/home3/green@snapshot1 > /net/backupserver/green.bak
差分
# zfs backup -i mypool/home3/green@snapshot1 mypool/home3/green@snapshot2 > /net/backupserver/green.bak.2-1
リストア
# cat /net/backupserver/green.bak | zfs restore -d mypool/home3/green
スナップショット
# zfs snapshot mypool/home3/green@`date +%Y%m%d`
ロールバック
# zfs rollback mypool/home3/green@20080201
ディスクの追加
> zpool add mypool mirror c3t0d0p0 c3t0d1p0
前回の部分から
の続き
format -e コマンドで
4. c3t0d0
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,0
5. c3t0d1
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,1
確認
パーティションを作成
# fdisk -B /dev/rdsk/c3t0d0p0
# fdisk -B /dev/rdsk/c3t0d1p0
今回はディスク全部なので。。。
format -e コマンドで label# format -e
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c1t0d0
/pci@0,0/pci10de,5d@e/pci1028,1f0e@0/sd@0,0
1. c1t1d0
/pci@0,0/pci10de,5d@e/pci1028,1f0e@0/sd@1,0
2. c2t0d0
/pci@0,0/pci1028,225@2,1/storage@7/disk@0,0
3. c2t0d1
/pci@0,0/pci1028,225@2,1/storage@7/disk@0,1
4. c3t0d0
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,0
5. c3t0d1
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,1
Specify disk (enter its number): 4
selecting c3t0d0
[disk formatted]
FORMAT MENU:
disk - select a disk
type - select (define) a disk type
partition - select (define) a partition table
current - describe the current disk
format - format and analyze the disk
fdisk - run the fdisk program
repair - repair a defective sector
label - write label to the disk
analyze - surface analysis
defect - defect list management
backup - search for backup labels
verify - read and display labels
save - save new disk/partition definitions
inquiry - show vendor, product and revision
scsi - independent SCSI mode selects
cache - enable, disable or query SCSI disk cache
volname - set 8-character volume name
!
quit
format> p
PARTITION MENU:
0 - change `0' partition
1 - change `1' partition
2 - change `2' partition
3 - change `3' partition
4 - change `4' partition
5 - change `5' partition
6 - change `6' partition
7 - change `7' partition
9 - change `9' partition
select - select a predefined table
modify - modify a predefined partition table
name - name the current table
print - display the current table
label - write partition map and label to the disk
!
quit
partition> 0
Part Tag Flag Cylinders Size Blocks
0 unassigned wm 0 0 (0/0/0) 0
Enter partition id tag[unassigned]: root
Enter partition permission flags[wm]:
Enter new starting cyl[1]:
Enter partition size[0b, 0c, 1e, 0.00mb, 0.00gb]: 60797c
partition> p
Current partition table (unnamed):
Total disk cylinders available: 60798 + 2 (reserved cylinders)
Part Tag Flag Cylinders Size Blocks
0 root wm 1 - 60797 465.73GB (60797/0/0) 976703805
1 unassigned wm 0 0 (0/0/0) 0
2 backup wu 0 - 60797 465.74GB (60798/0/0) 976719870
3 unassigned wm 0 0 (0/0/0) 0
4 unassigned wm 0 0 (0/0/0) 0
5 unassigned wm 0 0 (0/0/0) 0
6 unassigned wm 0 0 (0/0/0) 0
7 unassigned wm 0 0 (0/0/0) 0
8 boot wu 0 - 0 7.84MB (1/0/0) 16065
9 unassigned wm 0 0 (0/0/0) 0
partition> label
[0] SMI Label
[1] EFI Label
Specify Label type[0]:
Ready to label disk, continue? y
partition> q
FORMAT MENU:
....................................................
!
quit
format> q
#
# # zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------ ----- ----- ----- ----- ----- -----
mypool 444G 484G 1 1 136K 3.06K
mirror 444G 19.7G 1 1 136K 3.04K
c2t0d0 - - 0 0 73.9K 3.17K
c2t0d1 - - 0 0 69.9K 3.17K
mirror 63K 464G 0 0 0 705
c3t0d0p0 - - 0 0 759 16.3K
c3t0d1p0 - - 0 0 759 16.3K
------------ ----- ----- ----- ----- ----- -----
ZFS でバックアップを取る。
1: スナップショットを取る
zfs snapshot myzpool/home@snapshot1
2: バックアップをとる
zfs send myzpool/home@snapshot1 > /backup/snapshot1.img
* 差分のバックアップ
zfs -i myzpool/home@snapshot1 myzpool/home@snapshot2 > /myzpool/home@snapshot1-2.img
参考
Sun Microsystems Documentation
復元
zfs receive myzpool/home < /backup/snapshot1.img
※そろそろ zfs をまとめる必要があるね、、
最近やっと使っても良いかなって値段になってきた1T(1テラ) HDD(1000Gと書く方が正しいのでしょうか??)
でも諭吉さんが1枚飛びます。。
x86版の Solaris に入れて format コマンドで(あれ??)やっぱり。。
(Solaris で使おうと言うのがまちがっているのか??)
partition> p
Current partition table (original):
Total disk cylinders available: 60797 + 2 (reserved cylinders)
Part Tag Flag Cylinders Size Blocks
0 unassigned wm 0 0 (0/0/0) 0
1 unassigned wm 0 0 (0/0/0) 0
2 backup wu 0 - 60796 931.46GB (60797/0/0) 1953407610
3 unassigned wm 0 0 (0/0/0) 0
4 unassigned wm 0 0 (0/0/0) 0
5 unassigned wm 0 0 (0/0/0) 0
6 unassigned wm 0 0 (0/0/0) 0
7 unassigned wm 0 0 (0/0/0) 0
8 boot wu 0 - 0 15.69MB (1/0/0) 32130
9 unassigned wm 0 0 (0/0/0) 0
partition>
931.46G しかない(涙) 1000G(1Tって書くな!!)と思いながら。。
昨日の 1T HDDを2本使ってバックアップメディアを ZFSで作ってみよう。
bash-3.00# zpool create bakpool1 c2t0d0 c2t0d1
bash-3.00# zfs create bakpool1/bakup
bash-3.00# zfs set mountpoint=/export/bakcup bakpool1/bakup
bash-3.00# df -h
ファイルシステム サイズ 使用済み 使用可能 容量 マウント先
myzpool/homez1 1.3T 792G 575G 58% /export/home2
myzpool 1.3T 36K 575G 1% /myzpool
bakpool1 1.8T 24K 1.8T 1% /bakpool1
bakpool1/bakup 1.8T 24K 1.8T 1% /export/bakcup
bash-3.00#
スナップショットの一覧を見る。
bash-3.00# zfs list
NAME USED AVAIL REFER MOUNTPOINT
bakpool1 122K 1.78T 24.5K /bakpool1
bakpool1/bakup 24.5K 1.78T 24.5K /export/bakcup
myzpool 792G 575G 36.7K /myzpool
myzpool/homez1 792G 575G 792G /export/home2
myzpool/homez1@A811120821 38.0M - 792G -
バックアップを取りたいのは myzpool/homez1@A811120821 なので
前回のを参考に
zfs send myzpool/homez1@A811120821 > /export/bakcup/A811120821.img
で実行した...
外付けの ZFS ハードがエラーを吐いた。
カーネルパッチ(137138-09)を当てた後に気がついた。(これで ZFS v10が使えるって喜んでいるそばから。。)
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci1028,225@2,1/cdrom@6/disk@0,1 (sd12):
Nov 21 17:24:30 unknown Error for Command: read(10) Error Level: Fatal
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] Requested Block: 268435328 Error Block: 268435328
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] Vendor: Century Serial Number:
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] Sense Key: Media Error
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] ASC: 0x11 (unrecovered read error), ASCQ: 0x0, FRU: 0x0
それもsd11/sd12 の両方で raidzの意味無いし
この外付け USB のやつだし、とあたふたしていたら止まったので、見ていたらどうもUSBのHDDを2つ
バックアップ用に付けていたやつとコンフリクト起こすらしい。
本当に考えてバックアップ方法を考えないと。
心臓が止まる思いの数時間でした。。
#やはり USB で ZFS は危険か!!(だよね〜〜)
## 今日の zfs のコマンド!!!
要は fsck ?
# zpool scrub myzpool
SCRUB を止めたい時には。。
# zpool scrub -s myzpool
先日のエラーがとうとう、現実になりました。
状態は違ったようで c5t0d2 で発生していました。
# zpool status -x
プール: myzpool
状態: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
スクラブ: scrub stopped after 0h45m with 0 errors on Fri Nov 21 18:20:21 2008
構成:
NAME STATE READ WRITE CKSUM
myzpool DEGRADED 0 0 0
raidz1 DEGRADED 0 0 0
c5t0d0 ONLINE 0 0 0
c5t0d1 ONLINE 0 0 0
c5t0d2 FAULTED 4 14 0 too many errors
c5t0d3 ONLINE 0 0 0
エラー: 既知のデータエラーはありません
内部で作っていた手順通りと思ったら大間違い!!
# zpool offline myzpool c5t0d2
でOFFLINE にして「OFFLINE」にならない。 (エラーメッセージのコピーも忘れるほどPANIC!!)
で「エイや!!」でハードディスクの交換です。
このまま放置してもどうにもなりませんし。
☆おまけにホットスワップ対応していないし!!
とりあえず、不動明王には祈っておきましょう(実家は成田山に縁があるので)
1) システム shutdown
2) ハードディスクを交換
3) 電源 ON
4) ZFS に replace コマンドを実行
# zpool replace myzpool c5t0d2
で作業は終了
確認をしておこう
# zpool status -x
プール: myzpool
状態: DEGRADED
状態: 1 つまたは複数のデバイスの再同期化が進行中です。
プールはおそらく縮退状態で動作を継続します。
アクション: 再同期化が完了するまでお待ちください。
スクラブ: resilver in progress for 0h29m, 0.29% done, 166h34m to go
構成:
NAME STATE READ WRITE CKSUM
myzpool DEGRADED 0 0 0
raidz1 DEGRADED 0 0 0
c5t0d0 ONLINE 0 0 0
c5t0d1 ONLINE 0 0 0
replacing DEGRADED 0 0 0
c5t0d2s0/o FAULTED 0 0 0 too many errors
c5t0d2 ONLINE 0 0 0
c5t0d3 ONLINE 0 0 0
エラー: 既知のデータエラーはありません
==
うーーん 166時間かかるらしい。
やっぱり USD HDD でファイルサーバは無茶という結論と良い勉強をさせていただいた授業料としよう。
Solaris 10_x86で 138889-02 のパッチを Dell P.E. T105 にあてると Kernel がクラッシュする。
(たぶん。。)
うーんでも原因がわからない。
パッチの内容は AMD64 まわりらしいのですが。。。。
とにかく上記のパッチをあてると。カーネルが落ちるので
また固有の問題なのか調べたいのですが P.E. T105 は1台しかないので調べられない。。
復旧も兼ねて Solaris 10_u6 が出ていたのでこっちをインストール
データは ZFS で作ってていたので楽勝。。
zpool -f
で復旧。。
パッチと気がつくまで(お陰で)4回もインストールしたけれどね。。
以前は admintool で作業できたのですが。
Solaris 10 (9も使ってなかったので9からかな。。)
admintool がなくなり
ユーザ管理は useradd と vi に頼っていたのですが。
とにかく間違いが発生する。(uid の管理ミスや間違った後の修正が面倒)
昨日も uid をつけ間違いで
gnome が動作しなくなり
/var/tmp/gconfd-xxxx
/var/tmp/mapping-xxxx
/var/tmp/orbit-xxxx
のファイル(ディレクトリ)をいじるハメに。。。
前置きが長くなったが
とにかく
/usr/sbin/smc
で Solaris管理ツールが起動するのでここから管理しよう。。
Solaris のシステム管理 (基本編)
ユーザコマンド
/usr/sadm/bin/smuser
後はman で読もう。。
チョット時間が出来たので、Sun Solveを読んでみた。
同じ内容はpatch の README の中身にもあるのであろうが。
次の内容を見つけた
> NOTE 4: If you apply this patch on x86 system in 64-bit mode please
> add the following line to the /etc/system file:
>
> set nxge:nxge_use_kmem_alloc=0
理由はわからないが
64bit モードの際には /etc/system に次の1行を追加しろと言う内容だ。
Kernel の起動時(雰囲気ではドライバの読み込みか起動の時なのですが)
はぁ〜
仕方ないのでT105もう一台注文しよう。
なんか安いと言う話も聞いたし
動かない時はどうしよう。。
新しい Dell P.E. T105 が先日届きました。
早速 Solaris10x86 u6 をインストール&パッチ
問題ありません!!(普通に動きます。。)どうなっているの?
なんか仕様が変わっているのでしょうか?
う〜ん
BIOSのバージョンが違うくらいかな。。(BIOSのバージョンアップはこの次ね。。)
SPARC 版の solaris が起動できない
ULTRA5 の再インストールができない。
確認事項をまとめてみよう。
症状
CD-ROM から Solaris が BOOT できない。。
PROMの
Ok : probe-ide
と
OK: boot cdrom
で
Boot device: /pci@1f,0/pci@1,1/ide@3/cdrom@2,0:f File and args:
の値があっているか?
OpenOffice 3.0 でジャストシステムの一太郎のファイルを読めるようにする
拡張パッケージをリリースした。
今まで行政関係で一太郎のファイルが稀に届いていたのでたすかる。。
でも windows 専用って。。。。(涙)
通常 solaris は
# patchadd /var/sadm/spool/XXXXXX-xx.jar
もしくは
# smpatch update
でパッチを当てているが
まれに
"パッチ 121431-XX は、ポリシーによって禁止されている "interactive" というタ......"
でパッチが完了しない場合がある。。
こんな時には
# smpatch add -i 121431-37
add patch 121431-37
Transition old-style patching.
Patch 121431-37 has been successfully installed.
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
試行が完了しました。
システムは変更されていません。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
試行が完了しました。
システムは変更されていません。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
試行が完了しました。
システムは変更されていません。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
WARNING!!! - /etc/lu/synclist may have been modified from it's original contents.
WARNING!!! - Original /etc/lu/synclist saved as /etc/lu/synclist.121431-37
WARNING!!! - Merge any changes made to /etc/lu/synclist.121431-37 into /etc/lu/synclist
Updating /etc/default/lu
WARNING!!! - /etc/default/lu may have been modified from it's original contents.WARNING!!! - Original /etc/default/lu saved as /etc/default/lu.121431-37
WARNING!!! - Merge any changes made to /etc/default/lu.121431-37 into /etc/default/lu
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
=========================================================================
IMPORTANT NOTICE
Patches Needed to Run Solaris Live Upgrade
Correct operation of Solaris Live Upgrade requires that a limited set of
patch revisions be installed for SunOS 5.10 for the i386 platform.
Before installing or running Live Upgrade, you are required to install a
limited set of patch revisions. Make sure you have the most recently
updated patch list by consulting sunsolve.sun.com. Search for the technical
instruction (info doc) 206844 on the SunSolve(tm) web site.
Live Upgrade may fail to work properly if the latest limited set
of patch revisions are not installed on this system.
=========================================================================
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
=========================================================================
IMPORTANT NOTICE
Patches Needed to Run Solaris Live Upgrade
Correct operation of Solaris Live Upgrade requires that a limited set of
patch revisions be installed for SunOS 5.10 for the i386 platform.
Before installing or running Live Upgrade, you are required to install a
limited set of patch revisions. Make sure you have the most recently
updated patch list by consulting sunsolve.sun.com. Search for the technical
instruction (info doc) 206844 on the SunSolve(tm) web site.
Live Upgrade may fail to work properly if the latest limited set
of patch revisions are not installed on this system.
=========================================================================
とやって
# shutdown -i 6 -g 0 -y
で再起動しておこう。。
DELL の T105 で片方は kernel のパッチが動作するのに
もう一方はカーネルがDUMPしてしまう。。
何なんでしょ?
これhttp://forums.sun.com/thread.jspa?threadID=5385950&tstart=0なんでしょうか?
違いといえば SAS の RAID カードなのですが。。
原因はこいつかな??買った時期も違うのですが。。
Solaris 10 u5 に戻したら Software Update が動かないって!!
なんで??
「SCN/cacaoのアカウントログインでエラーが発生しました」
って Web上ではログインできるのでパスワードなどの間違いではないので
探してみたら。。
http://sugaken.com/bloggers/2007/07/opensolaris.html
ありました。。
手順をまとめると
/usr/lib/breg/data/RegistrationProfile.properties
に ユーザ名とパスワードを追記
# cacaoadm stop
# rm /var/scn/persistence/SCN*
# /usr/lib/cc-cfw/framework/lib/cc-client-adm stop
# /usr/lib/cc-ccr/bin/eraseCCRRepository
# cacaoadm start
# sconadm register -a -r /usr/lib/breg/data/RegistrationProfile.properties
sconadm が実行中です
ユーザーを認証中...
finish registration!
となる。
途中エラーメッセージがでるが無視をする事。。
あ〜 T105 なんとかならないの〜〜
そろそろ、ZFSで運用して1年が経とうとしているので、
pool の拡張と
念のためメディアを交換しようと思う。。
よくUSBの外付けディスクでがんばっている。。と思う。。
はじめに外付けディスクを準備して
NAME STATE READ WRITE CKSUM
myzpool2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
c5t0d0s0 ONLINE 0 0 0
c5t0d1s0 ONLINE 0 0 0
c5t0d2s0 ONLINE 0 0 0
c5t0d3s0 ONLINE 0 0 0
# zpool add myzpool2 raidz c6t0d0 c6t0d1 c6t0d2 c6t0d3
で pool を拡張
NAME STATE READ WRITE CKSUM
myzpool2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
c5t0d0s0 ONLINE 0 0 0
c5t0d1s0 ONLINE 0 0 0
c5t0d2s0 ONLINE 0 0 0
c5t0d3s0 ONLINE 0 0 0
raidz1 ONLINE 0 10 0
c6t0d1 ONLINE 0 9 0
c6t0d2 ONLINE 0 9 0
c6t0d0 ONLINE 0 9 0
c6t0d3 ONLINE 0 9 0
# WRITE ERROR がでているが後で確認しよう
ここでディスクの入れ替え。。
別ディスクを付けて(USBは、この辺が便利か??)入れ替える。。
(大体40分程度かかる)
zpool replace myzpool2 c5t0d0s0 c7t0d0
zpool replace myzpool2 c5t0d3s0 c7t0d1
今回使ったコマンド
rmformat -l
fdisk -B /dev/rdsk/c6t0d0p0
format -e
zpool add myzpool2 raidz c6t0d0 c6t0d1 c6t0d2 c6t0d3
zpool status -v
zpool status -x
zpool iostat -v
zpool replace myzpool2 c5t0d0s0 c7t0d0