メイン

Solaris アーカイブ

2008年07月03日

Dell P.E. T105

Dell PowerEdge T105 に Solaris10 7/08 を
いれたのに Ether-Net が認識しない
 幾つか確認したら
http://ja.broadcom.com/support/ethernet_nic/downloaddrivers.php
 solaris のドライバがあったので

2008年08月08日

USB HDD で ZFS を作ってみよう。

ディスクを登録
> # zpool create mypool c1t0d0 c1t2d0
# zpool create mypool mirror c2t0d0 c2t0d1

ディスクでなくファイルを pool する場合には
> # mkfile 20g /disk
> # zpool create mypool /disk

home3 の領域を作成
# zfs create mypool/home3
> zfs create mypool/home

# zfs set mountpoint=/export/home3 mypool/home3
# zfs list

> # zfs set mountpoint=/export/home mypool/home
> #

ディスクの追加
> zpool add mypool c2t3d0

ZFSの切り離し
sparc# zpool export mypool
x86# zpool import mypool

スナップショット
# zfs snapshot mypool/home3/green@snapshot1
バックアップ
# zfs backup mypool/home3/green@snapshot1 > /net/backupserver/green.bak
差分
# zfs backup -i mypool/home3/green@snapshot1 mypool/home3/green@snapshot2 > /net/backupserver/green.bak.2-1
リストア
# cat /net/backupserver/green.bak | zfs restore -d mypool/home3/green

スナップショット
# zfs snapshot mypool/home3/green@`date +%Y%m%d`
ロールバック
# zfs rollback mypool/home3/green@20080201

2008年09月06日

ZFS メモ(その1)

ディスクの追加
> zpool add mypool mirror c3t0d0p0 c3t0d1p0

前回の部分から
の続き

format -e コマンドで
4. c3t0d0
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,0
5. c3t0d1
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,1
確認
パーティションを作成
# fdisk -B /dev/rdsk/c3t0d0p0
# fdisk -B /dev/rdsk/c3t0d1p0
今回はディスク全部なので。。。

format -e コマンドで label# format -e
Searching for disks...done


AVAILABLE DISK SELECTIONS:
0. c1t0d0
/pci@0,0/pci10de,5d@e/pci1028,1f0e@0/sd@0,0
1. c1t1d0
/pci@0,0/pci10de,5d@e/pci1028,1f0e@0/sd@1,0
2. c2t0d0
/pci@0,0/pci1028,225@2,1/storage@7/disk@0,0
3. c2t0d1
/pci@0,0/pci1028,225@2,1/storage@7/disk@0,1
4. c3t0d0
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,0
5. c3t0d1
/pci@0,0/pci1028,225@2,1/storage@4/disk@0,1
Specify disk (enter its number): 4
selecting c3t0d0
[disk formatted]


FORMAT MENU:
disk - select a disk
type - select (define) a disk type
partition - select (define) a partition table
current - describe the current disk
format - format and analyze the disk
fdisk - run the fdisk program
repair - repair a defective sector
label - write label to the disk
analyze - surface analysis
defect - defect list management
backup - search for backup labels
verify - read and display labels
save - save new disk/partition definitions
inquiry - show vendor, product and revision
scsi - independent SCSI mode selects
cache - enable, disable or query SCSI disk cache
volname - set 8-character volume name
! - execute , then return
quit
format> p

PARTITION MENU:
0 - change `0' partition
1 - change `1' partition
2 - change `2' partition
3 - change `3' partition
4 - change `4' partition
5 - change `5' partition
6 - change `6' partition
7 - change `7' partition
9 - change `9' partition
select - select a predefined table
modify - modify a predefined partition table
name - name the current table
print - display the current table
label - write partition map and label to the disk
! - execute , then return
quit

partition> 0
Part Tag Flag Cylinders Size Blocks
0 unassigned wm 0 0 (0/0/0) 0

Enter partition id tag[unassigned]: root
Enter partition permission flags[wm]:
Enter new starting cyl[1]:
Enter partition size[0b, 0c, 1e, 0.00mb, 0.00gb]: 60797c
partition> p
Current partition table (unnamed):
Total disk cylinders available: 60798 + 2 (reserved cylinders)

Part Tag Flag Cylinders Size Blocks
0 root wm 1 - 60797 465.73GB (60797/0/0) 976703805
1 unassigned wm 0 0 (0/0/0) 0
2 backup wu 0 - 60797 465.74GB (60798/0/0) 976719870
3 unassigned wm 0 0 (0/0/0) 0
4 unassigned wm 0 0 (0/0/0) 0
5 unassigned wm 0 0 (0/0/0) 0
6 unassigned wm 0 0 (0/0/0) 0
7 unassigned wm 0 0 (0/0/0) 0
8 boot wu 0 - 0 7.84MB (1/0/0) 16065
9 unassigned wm 0 0 (0/0/0) 0

partition> label
[0] SMI Label
[1] EFI Label
Specify Label type[0]:
Ready to label disk, continue? y

partition> q


FORMAT MENU:
....................................................
! - execute , then return
quit
format> q
#

# # zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------ ----- ----- ----- ----- ----- -----
mypool 444G 484G 1 1 136K 3.06K
mirror 444G 19.7G 1 1 136K 3.04K
c2t0d0 - - 0 0 73.9K 3.17K
c2t0d1 - - 0 0 69.9K 3.17K
mirror 63K 464G 0 0 0 705
c3t0d0p0 - - 0 0 759 16.3K
c3t0d1p0 - - 0 0 759 16.3K
------------ ----- ----- ----- ----- ----- -----


2008年09月16日

ZFS その後 (その2) raidz を作る。

RAIDZデバイスを作成してみる。。

500Gx4(実際には 465Gx4)で作成してみる。
今回の作業は現在運用している ZFS(前回と前々回)のとりはずし
新規設定の2つ

poolデバイスの作成
> zpool create myzpool raidz c5t0d0p0 c5t0d1p0 c5t0d2p0 c5t0d3p0
詳細は前々回の部分から

間違えて mirror で作って(涙)。。。

前回の部分から
の続き

poolデバイスの取り外しは(現在試している。。)

# zpool export myzpool
参考
# zppol import
  参考

2008年11月03日

ZFS その後 (その3) ...

ZFS でバックアップを取る。

1: スナップショットを取る
zfs snapshot myzpool/home@snapshot1

2: バックアップをとる
zfs send myzpool/home@snapshot1 > /backup/snapshot1.img
* 差分のバックアップ
 zfs -i myzpool/home@snapshot1 myzpool/home@snapshot2 > /myzpool/home@snapshot1-2.img

参考
Sun Microsystems Documentation

復元
zfs receive myzpool/home < /backup/snapshot1.img

※そろそろ zfs をまとめる必要があるね、、

2008年11月11日

1T(1テラ) HDDを使ってみる。。

最近やっと使っても良いかなって値段になってきた1T(1テラ) HDD(1000Gと書く方が正しいのでしょうか??)
でも諭吉さんが1枚飛びます。。

x86版の Solaris に入れて format コマンドで(あれ??)やっぱり。。
(Solaris で使おうと言うのがまちがっているのか??)

partition> p
Current partition table (original):
Total disk cylinders available: 60797 + 2 (reserved cylinders)

Part Tag Flag Cylinders Size Blocks
0 unassigned wm 0 0 (0/0/0) 0
1 unassigned wm 0 0 (0/0/0) 0
2 backup wu 0 - 60796 931.46GB (60797/0/0) 1953407610
3 unassigned wm 0 0 (0/0/0) 0
4 unassigned wm 0 0 (0/0/0) 0
5 unassigned wm 0 0 (0/0/0) 0
6 unassigned wm 0 0 (0/0/0) 0
7 unassigned wm 0 0 (0/0/0) 0
8 boot wu 0 - 0 15.69MB (1/0/0) 32130
9 unassigned wm 0 0 (0/0/0) 0

partition>

931.46G しかない(涙) 1000G(1Tって書くな!!)と思いながら。。

2008年11月12日

USB HDD で ZFS (その2)

昨日の 1T HDDを2本使ってバックアップメディアを ZFSで作ってみよう。

bash-3.00# zpool create bakpool1 c2t0d0 c2t0d1

bash-3.00# zfs create bakpool1/bakup

bash-3.00# zfs set mountpoint=/export/bakcup bakpool1/bakup

bash-3.00# df -h

ファイルシステム サイズ 使用済み 使用可能 容量 マウント先
myzpool/homez1 1.3T 792G 575G 58% /export/home2
myzpool 1.3T 36K 575G 1% /myzpool
bakpool1 1.8T 24K 1.8T 1% /bakpool1
bakpool1/bakup 1.8T 24K 1.8T 1% /export/bakcup
bash-3.00#

ZFS のバックアップ

スナップショットの一覧を見る。
bash-3.00# zfs list
NAME USED AVAIL REFER MOUNTPOINT
bakpool1 122K 1.78T 24.5K /bakpool1
bakpool1/bakup 24.5K 1.78T 24.5K /export/bakcup
myzpool 792G 575G 36.7K /myzpool
myzpool/homez1 792G 575G 792G /export/home2
myzpool/homez1@A811120821 38.0M - 792G -

バックアップを取りたいのは myzpool/homez1@A811120821 なので
前回のを参考
zfs send myzpool/homez1@A811120821 > /export/bakcup/A811120821.img

で実行した...

2008年11月21日

ZFS (汗!!(アセ

外付けの ZFS ハードがエラーを吐いた。

カーネルパッチ(137138-09)を当てた後に気がついた。(これで ZFS v10が使えるって喜んでいるそばから。。)

Nov 21 17:24:30 unknown scsi: [ID 107833 kern.warning] WARNING: /pci@0,0/pci1028,225@2,1/cdrom@6/disk@0,1 (sd12):
Nov 21 17:24:30 unknown Error for Command: read(10) Error Level: Fatal
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] Requested Block: 268435328 Error Block: 268435328
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] Vendor: Century Serial Number:
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] Sense Key: Media Error
Nov 21 17:24:30 unknown scsi: [ID 107833 kern.notice] ASC: 0x11 (unrecovered read error), ASCQ: 0x0, FRU: 0x0

それもsd11/sd12 の両方で raidzの意味無いし

この外付け USB のやつだし、とあたふたしていたら止まったので、見ていたらどうもUSBのHDDを2つ
バックアップ用に付けていたやつとコンフリクト起こすらしい。

本当に考えてバックアップ方法を考えないと。

心臓が止まる思いの数時間でした。。
  #やはり USB で ZFS は危険か!!(だよね〜〜)

## 今日の zfs のコマンド!!!
要は fsck ?
# zpool scrub myzpool
SCRUB を止めたい時には。。
# zpool scrub -s myzpool

2008年11月23日

ZFS のエラーと復旧

先日のエラーがとうとう、現実になりました。
状態は違ったようで c5t0d2 で発生していました。

 # zpool status -x
  プール: myzpool
  状態: DEGRADED
  status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
  action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
   スクラブ: scrub stopped after 0h45m with 0 errors on Fri Nov 21 18:20:21 2008
  構成:

NAME STATE READ WRITE CKSUM
myzpool DEGRADED 0 0 0
raidz1 DEGRADED 0 0 0
c5t0d0 ONLINE 0 0 0
c5t0d1 ONLINE 0 0 0
c5t0d2 FAULTED 4 14 0 too many errors
c5t0d3 ONLINE 0 0 0

  エラー: 既知のデータエラーはありません

内部で作っていた手順通りと思ったら大間違い!!
# zpool offline myzpool c5t0d2
でOFFLINE にして「OFFLINE」にならない。 (エラーメッセージのコピーも忘れるほどPANIC!!)
 で「エイや!!」でハードディスクの交換です。
 このまま放置してもどうにもなりませんし。
☆おまけにホットスワップ対応していないし!!
 とりあえず、不動明王には祈っておきましょう(実家は成田山に縁があるので)
 1) システム shutdown
2) ハードディスクを交換
3) 電源 ON
 4) ZFS に replace コマンドを実行
   # zpool replace myzpool c5t0d2
で作業は終了

確認をしておこう
 # zpool status -x
  プール: myzpool
  状態: DEGRADED
 状態: 1 つまたは複数のデバイスの再同期化が進行中です。
プールはおそらく縮退状態で動作を継続します。
 アクション: 再同期化が完了するまでお待ちください。
  スクラブ: resilver in progress for 0h29m, 0.29% done, 166h34m to go
 構成:

NAME STATE READ WRITE CKSUM
myzpool DEGRADED 0 0 0
raidz1 DEGRADED 0 0 0
c5t0d0 ONLINE 0 0 0
c5t0d1 ONLINE 0 0 0
replacing DEGRADED 0 0 0
c5t0d2s0/o FAULTED 0 0 0 too many errors
c5t0d2 ONLINE 0 0 0
c5t0d3 ONLINE 0 0 0

 エラー: 既知のデータエラーはありません

==
うーーん 166時間かかるらしい。
 やっぱり USD HDD でファイルサーバは無茶という結論と良い勉強をさせていただいた授業料としよう。



 

2008年12月21日

138889-02 が!!

Solaris 10_x86で 138889-02 のパッチを Dell P.E. T105 にあてると Kernel がクラッシュする。
 (たぶん。。)
うーんでも原因がわからない。
 パッチの内容は AMD64 まわりらしいのですが。。。。

とにかく上記のパッチをあてると。カーネルが落ちるので

また固有の問題なのか調べたいのですが P.E. T105 は1台しかないので調べられない。。

 復旧も兼ねて Solaris 10_u6 が出ていたのでこっちをインストール
 データは ZFS で作ってていたので楽勝。。
zpool -f
で復旧。。

パッチと気がつくまで(お陰で)4回もインストールしたけれどね。。

2008年12月23日

Solaris と ユーザ管理

以前は admintool で作業できたのですが。
Solaris 10 (9も使ってなかったので9からかな。。)

admintool がなくなり
ユーザ管理は useradd と vi に頼っていたのですが。
とにかく間違いが発生する。(uid の管理ミスや間違った後の修正が面倒)
昨日も uid をつけ間違いで
gnome が動作しなくなり
/var/tmp/gconfd-xxxx
/var/tmp/mapping-xxxx
/var/tmp/orbit-xxxx
のファイル(ディレクトリ)をいじるハメに。。。

前置きが長くなったが
とにかく
/usr/sbin/smc
で Solaris管理ツールが起動するのでここから管理しよう。。
Solaris のシステム管理 (基本編)

ユーザコマンド
 /usr/sadm/bin/smuser
 後はman で読もう。。

2009年01月02日

138889-02 が!! : その2

チョット時間が出来たので、Sun Solveを読んでみた。
 同じ内容はpatch の README の中身にもあるのであろうが。

次の内容を見つけた
> NOTE 4: If you apply this patch on x86 system in 64-bit mode please
> add the following line to the /etc/system file:
>
> set nxge:nxge_use_kmem_alloc=0

理由はわからないが
64bit モードの際には /etc/system に次の1行を追加しろと言う内容だ。
Kernel の起動時(雰囲気ではドライバの読み込みか起動の時なのですが)
 はぁ〜
仕方ないのでT105もう一台注文しよう。
 なんか安いと言う話も聞いたし
 動かない時はどうしよう。。

2009年01月10日

138889-02 が!! : その3

新しい Dell P.E. T105 が先日届きました。

早速 Solaris10x86 u6 をインストール&パッチ

問題ありません!!(普通に動きます。。)どうなっているの?
なんか仕様が変わっているのでしょうか?
う〜ん
BIOSのバージョンが違うくらいかな。。(BIOSのバージョンアップはこの次ね。。)

2009年01月12日

SPARC solaris 確認

SPARC 版の solaris が起動できない
ULTRA5 の再インストールができない。
確認事項をまとめてみよう。

症状
CD-ROM から Solaris が BOOT できない。。

PROMの
Ok : probe-ide

OK: boot cdrom

Boot device: /pci@1f,0/pci@1,1/ide@3/cdrom@2,0:f File and args:
の値があっているか?

2009年02月04日

OpenOffice で 一太郎のファイル

OpenOffice 3.0 でジャストシステムの一太郎のファイルを読めるようにする
拡張パッケージをリリースした。

OpenOffce

今まで行政関係で一太郎のファイルが稀に届いていたのでたすかる。。

でも windows 専用って。。。。(涙)

2009年03月27日

Solaris 121431-xx のパッチ

通常 solaris は
# patchadd /var/sadm/spool/XXXXXX-xx.jar
もしくは
# smpatch update
でパッチを当てているが
まれに
"パッチ 121431-XX は、ポリシーによって禁止されている "interactive" というタ......"
でパッチが完了しない場合がある。。
こんな時には
# smpatch add -i 121431-37
add patch 121431-37
Transition old-style patching.
Patch 121431-37 has been successfully installed.
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
試行が完了しました。
システムは変更されていません。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
試行が完了しました。
システムは変更されていません。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
試行が完了しました。
システムは変更されていません。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
WARNING!!! - /etc/lu/synclist may have been modified from it's original contents.
WARNING!!! - Original /etc/lu/synclist saved as /etc/lu/synclist.121431-37
WARNING!!! - Merge any changes made to /etc/lu/synclist.121431-37 into /etc/lu/synclist
Updating /etc/default/lu
WARNING!!! - /etc/default/lu may have been modified from it's original contents.WARNING!!! - Original /etc/default/lu saved as /etc/default/lu.121431-37
WARNING!!! - Merge any changes made to /etc/default/lu.121431-37 into /etc/default/lu
のインストールに成功しました。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
=========================================================================
IMPORTANT NOTICE
Patches Needed to Run Solaris Live Upgrade
Correct operation of Solaris Live Upgrade requires that a limited set of
patch revisions be installed for SunOS 5.10 for the i386 platform.
Before installing or running Live Upgrade, you are required to install a
limited set of patch revisions. Make sure you have the most recently
updated patch list by consulting sunsolve.sun.com. Search for the technical
instruction (info doc) 206844 on the SunSolve(tm) web site.
Live Upgrade may fail to work properly if the latest limited set
of patch revisions are not installed on this system.
=========================================================================
のインストールに成功しました。
すでにインストールされているパッケージと同じアーキテクチャ、同じバー
ジョンのパッケージをインストールしようとしています。インストールを行う
とこのパッケージは上書きされます。
=========================================================================
IMPORTANT NOTICE
Patches Needed to Run Solaris Live Upgrade
Correct operation of Solaris Live Upgrade requires that a limited set of
patch revisions be installed for SunOS 5.10 for the i386 platform.
Before installing or running Live Upgrade, you are required to install a
limited set of patch revisions. Make sure you have the most recently
updated patch list by consulting sunsolve.sun.com. Search for the technical
instruction (info doc) 206844 on the SunSolve(tm) web site.
Live Upgrade may fail to work properly if the latest limited set
of patch revisions are not installed on this system.
=========================================================================
のインストールに成功しました。

とやって

# shutdown -i 6 -g 0 -y

で再起動しておこう。。

2009年08月15日

こんどは 139556-08 が!!

DELL の T105 で片方は kernel のパッチが動作するのに
もう一方はカーネルがDUMPしてしまう。。

何なんでしょ?
これhttp://forums.sun.com/thread.jspa?threadID=5385950&tstart=0なんでしょうか?

違いといえば SAS の RAID カードなのですが。。
原因はこいつかな??買った時期も違うのですが。。

Software Updateも!!!

Solaris 10 u5 に戻したら Software Update が動かないって!!
なんで??
「SCN/cacaoのアカウントログインでエラーが発生しました」
って Web上ではログインできるのでパスワードなどの間違いではないので
探してみたら。。
http://sugaken.com/bloggers/2007/07/opensolaris.html
ありました。。

手順をまとめると
/usr/lib/breg/data/RegistrationProfile.properties
に ユーザ名とパスワードを追記
# cacaoadm stop
# rm /var/scn/persistence/SCN*
# /usr/lib/cc-cfw/framework/lib/cc-client-adm stop
# /usr/lib/cc-ccr/bin/eraseCCRRepository
# cacaoadm start
# sconadm register -a -r /usr/lib/breg/data/RegistrationProfile.properties
sconadm が実行中です
ユーザーを認証中...
finish registration!

となる。
途中エラーメッセージがでるが無視をする事。。
あ〜 T105 なんとかならないの〜〜

2009年10月24日

ZFS の メディアの交換

そろそろ、ZFSで運用して1年が経とうとしているので、
pool の拡張と
念のためメディアを交換しようと思う。。

よくUSBの外付けディスクでがんばっている。。と思う。。

はじめに外付けディスクを準備して

NAME STATE READ WRITE CKSUM
myzpool2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
c5t0d0s0 ONLINE 0 0 0
c5t0d1s0 ONLINE 0 0 0
c5t0d2s0 ONLINE 0 0 0
c5t0d3s0 ONLINE 0 0 0

# zpool add myzpool2 raidz c6t0d0 c6t0d1 c6t0d2 c6t0d3

で pool を拡張

NAME STATE READ WRITE CKSUM
myzpool2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
c5t0d0s0 ONLINE 0 0 0
c5t0d1s0 ONLINE 0 0 0
c5t0d2s0 ONLINE 0 0 0
c5t0d3s0 ONLINE 0 0 0
raidz1 ONLINE 0 10 0
c6t0d1 ONLINE 0 9 0
c6t0d2 ONLINE 0 9 0
c6t0d0 ONLINE 0 9 0
c6t0d3 ONLINE 0 9 0

# WRITE ERROR がでているが後で確認しよう

ここでディスクの入れ替え。。
別ディスクを付けて(USBは、この辺が便利か??)入れ替える。。
(大体40分程度かかる)
zpool replace myzpool2 c5t0d0s0 c7t0d0
zpool replace myzpool2 c5t0d3s0 c7t0d1

今回使ったコマンド
rmformat -l
fdisk -B /dev/rdsk/c6t0d0p0
format -e
zpool add myzpool2 raidz c6t0d0 c6t0d1 c6t0d2 c6t0d3
zpool status -v
zpool status -x
zpool iostat -v
zpool replace myzpool2 c5t0d0s0 c7t0d0

About Solaris

ブログ「林檎と悪魔とペンギンと」のカテゴリ「Solaris」に投稿されたすべてのエントリーのアーカイブのページです。過去のものから新しいものへ順番に並んでいます。

前のカテゴリはNetBSDです。

次のカテゴリはその他です。

他にも多くのエントリーがあります。メインページアーカイブページも見てください。