J'ai effectué cette installation sur une vmware Version 2.0.1 machine hôte i686 amd-3500+.
La vm est configurée comme indiqué sur la copie d'écran:

configuration vm opensolaris

Ne maîtrisant pas vraiment cette distrib, j'ai simplement réuni sur cette page les quelques manips que j'ai effectuées. Si on souhaite l'utiliser au quotidien, il sera vital d'approfondir le fonctionnement du système de fichiers ZFS.

L'installation ne m'a demandé que quelques clics (cf les copies d'écrans) . La config du réseau a débuté en dhcp puis lorsque j'ai eu la main je l'ai passé en ip fixe via l'équivalent du network-manager (j'ai eu un peu de mal à trouver les fichiers de config :)


La présentation sera donc sous forme de notes prises au fur et à mesure des "découvertes".

Historique
* En decembre 2007 Ian Murdock fondateur de debian est recruté par Sun pour créer la distrib opensolaris.

Remarques:

* Utilisation de pfexec en lieu et place de sudo.

* pkg: gestionnaire de paquetage avec gestion des dépendances

Exemples:
pkg refresh
pkg install SUNWscreen
pkg image-update
pkg search -r
pkg list

root@osol:/.zfs# pkg list
NAME (PUBLISHER)                              VERSION         STATE      UFIX
BRCMbnx                                       0.5.11-0.111    installed  ----
FSWxorg-fonts-core                            0.5.11-0.111    installed  ----
NVDAgraphics                                  0.180.44-0.111  installed  ----
SUNW1394                                      0.5.11-0.111    installed  ----
SUNWDTraceToolkit                             0.5.11-0.111    installed  ----
SUNWPython                                    2.4.4-0.111     installed  ----
SUNWPython-extra                              0.5.11-0.111    installed  ----
SUNWTcl                                       8.4.18-0.111    installed  ----
SUNWTiff                                      0.5.11-0.111    installed  ----
....

Voir également (nouvelle fenêtre): http://www.drzz.net/articles.php?id=97

* Nouvelle release tous les 6 mois

* ZFS: couple la notion de volume manager et de fs
  - L'ensemble de l'espace disponible d'un volume l'est pour n'importe quel système de fichiers
  - Administration unifiée (disque dur simple, Raid 0/1/5/6)

* système de fichiers intégralement transactionnel / COW
  http://en.wikipedia.org/wiki/Copy-on-write

* Les snapshots
  -Permettent de prendre une image à un instant t d'un fs
  -Seules les nouvelles données occuperont de l'espace disque
  -données accessibles directement via le répertoire ~/.zfs/snapshots


Exemple sur une machine immédiatement après l'install:

root@osol:/.zfs# ls -l snapshot/install/
total 51
lrwxrwxrwx  1 root root   9 2009-06-22 11:16 bin -> ./usr/bin
drwxr-xr-x  6 root sys    7 2009-06-22 11:16 boot
drwxr-xr-x  2 root root   4 2009-06-22 12:48 cdrom
drwxr-xr-x 33 root sys  274 2009-06-22 11:16 dev
drwxr-xr-x  3 root sys    3 2009-05-14 17:48 devices
drwxr-xr-x 77 root sys  219 2009-06-22 11:19 etc
drwxr-xr-x  2 root root   2 2009-06-22 10:55 export
drwxr-xr-x 19 root sys   20 2009-06-22 10:59 kernel
drwxr-xr-x 10 root bin  180 2009-06-22 10:59 lib
drwx------  2 root root   2 2009-05-14 18:03 lost+found
drwxr-xr-x  3 root root   5 2009-06-22 10:59 media
drwxr-xr-x  2 root sys    2 2009-06-22 11:16 mnt
drwxr-xr-x  4 root sys    4 2009-06-22 11:15 opt
drwxr-xr-x  5 root sys    5 2009-05-14 17:51 platform
dr-xr-xr-x  2 root root   2 2009-05-14 17:48 proc
-rw-r--r--  1 root root   0 2009-05-14 17:48 reconfigure
drwx------  2 root root   4 2009-06-22 11:16 root
drwxr-xr-x  2 root root   2 2009-06-22 10:55 rpool
drwxr-xr-x  2 root sys   58 2009-06-22 11:18 sbin
drwxr-xr-x  4 root root   4 2009-05-14 17:48 system
drwxrwxrwt  2 root sys    3 2009-06-22 11:16 tmp
drwxr-xr-x 30 root sys   44 2009-06-22 11:00 usr
drwxr-xr-x 34 root sys   34 2009-05-14 17:53 var


* Les boot archives
  chaque mise à jour (noyau, système de base) génére automatiquement la prise d'un snapshot de l'ensemble du système


* Dtrace: ensemble d'utilitaires permettant d'interagir avec l'ensemble du sytème

* Notions de zones
  -Multiples instances d'OS
  -Utilisation du même noyau
  -Permetttre une segmentation des services
   ex: zone de dev , zone d'intégration

* SMF: service management facility
  -Permet de redémarrer un service s'il meurt
  -Gestion des dépendances
  -Permet d'attribuer des privilèges
  -Permet une administration avec RBAC


root@osol:/# w
 12:43pm  up  1:15,  2 users,  load average: 0,20, 0,38, 0,33
User     tty           login@  idle   JCPU   PCPU  what
pme      console      11:45am  1:15   1:25     34  /usr/lib/nwam-manager
pme      pts/2        11:53am     2     10      8  -bash
pme      pts/3        12:21pm            2         w

Là rien d'extraordinaire.


Là, par contre, on remarque que quelque chose a changé par rapport à nos distribs habituelles notamment le type de système de fichiers

Voir http://opensolaris.org/os/community/zfs/whatis/

root@osol:/# df -hTa
Filesystem    Type    Size  Used Avail Use% Mounted on
rpool/ROOT/opensolaris
               zfs    5,3G  3,0G  2,3G  57% /
/devices     devfs       0     0     0   -  /devices
/dev           dev       0     0     0   -  /dev
ctfs          ctfs       0     0     0   -  /system/contract
proc          proc       0     0     0   -  /proc
mnttab       mntfs       0     0     0   -  /etc/mnttab
swap         tmpfs    292M  376K  292M   1% /etc/svc/volatile
objfs        objfs       0     0     0   -  /system/object
sharefs    sharefs       0     0     0   -  /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap2.so.1
              lofs    5,3G  3,0G  2,3G  57% /lib/libc.so.1
fd              fd       0     0     0   -  /dev/fd
swap         tmpfs    292M   36K  292M   1% /tmp
swap         tmpfs    292M  140K  292M   1% /var/run
rpool/export   zfs    2,3G   21K  2,3G   1% /export
rpool/export/home
               zfs    2,3G   21K  2,3G   1% /export/home
rpool/export/home/pme
               zfs    2,4G  124M  2,3G   6% /export/home/pme
rpool          zfs    2,3G   79K  2,3G   1% /rpool
-hosts      autofs       0     0     0   -  /net
auto_home   autofs       0     0     0   -  /home




La commande uname renvoie les infos habituelles.

root@osol:/# uname -a
SunOS osol 5.11 snv_111b i86pc i386 i86pc Solaris

Ifconfig devra être suivie de paramètres.

root@osol:/boot# ifconfig e1000g0
e1000g0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 3
        inet 192.168.1.239 netmask ffffff00 broadcast 192.168.1.255
        ether 0:c:29:26:96:fd

root@osol:/usr/sbin# ifconfig -a
lo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
        inet 127.0.0.1 netmask ff000000
e1000g0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 3
        inet 192.168.1.239 netmask ffffff00 broadcast 192.168.1.255
        ether 0:c:29:26:96:fd
lo0: flags=2002000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv6,VIRTUAL> mtu 8252 index 1
        inet6 ::1/128


Voir également (nouvelle fenêtre): http://www.linuxdynasty.org/basic-networking-howto-on-opensolaris.html

L'option -tpan n'est pas reconnu et il faut jouer du man pour netstat

root@osol:/boot# netstat -af inet

UDP: IPv4
   Local Address        Remote Address      State
-------------------- -------------------- ----------
      *.mdns                              Idle
      *.sunrpc                            Idle
      *.*                                 Unbound
      *.34822                             Idle
      *.sunrpc                            Idle
      *.*                                 Unbound
      *.47111                             Idle
      *.48153                             Idle
      *.40255                             Idle
      *.*                                 Unbound

TCP: IPv4
   Local Address        Remote Address    Swind Send-Q Rwind Recv-Q    State
-------------------- -------------------- ----- ------ ----- ------ -----------
      *.*                  *.*                0      0 49152      0 IDLE
192.168.1.239.40335  72.5.123.21.80       49368      0 50820      0 LAST_ACK
192.168.1.239.57520  72.5.123.21.80       49368      0 50820      0 LAST_ACK
192.168.1.239.44918  72.5.123.21.80       49368      0 50820      0 LAST_ACK
192.168.1.239.53085  72.5.123.21.80       49368      0 50820      0 LAST_ACK
192.168.1.239.42573  72.5.123.21.80       49368      0 50820      0 LAST_ACK
192.168.1.239.49476  72.5.123.21.80       49368      0 50820      0 CLOSE_WAIT
192.168.1.239.63652  72.5.123.21.80       49368      0 50820      0 CLOSE_WAIT
192.168.1.239.50462  72.5.123.21.80       49368      0 50820      0 CLOSE_WAIT
192.168.1.239.59463  72.5.123.21.80       49368      0 50820      0 CLOSE_WAIT
      *.sunrpc             *.*                0      0 49152      0 LISTEN
      *.*                  *.*                0      0 49152      0 IDLE
      *.sunrpc             *.*                0      0 49152      0 LISTEN
      *.*                  *.*                0      0 49152      0 IDLE
osol.local.50557           *.*                0      0 49152      0 LISTEN
      *.ssh                *.*                0      0 49152      0 LISTEN
osol.local.smtp            *.*                0      0 49152      0 LISTEN
osol.local.submission       *.*                0      0 49152      0 LISTEN
      *.63933              *.*                0      0 49152      0 LISTEN
      *.38584              *.*                0      0 49152      0 LISTEN
      *.61804              *.*                0      0 49152      0 LISTEN
osol.local.49846           *.*                0      0 49152      0 LISTEN
osol.local.46216           *.*                0      0 49152      0 LISTEN
osol.local.44555           *.*                0      0 49152      0 LISTEN
osol.local.52241           *.*                0      0 49152      0 LISTEN
osol.local.57798           *.*                0      0 49152      0 LISTEN
osol.local.42503           *.*                0      0 49152      0 LISTEN
osol.local.49796           *.*                0      0 49152      0 LISTEN
osol.local.33744           *.*                0      0 49152      0 LISTEN
osol.local.50937           *.*                0      0 49152      0 LISTEN
osol.local.50533           *.*                0      0 49152      0 LISTEN
osol.local.64985           *.*                0      0 49152      0 LISTEN
osol.local.33867           *.*                0      0 49152      0 LISTEN
osol.local.45194           *.*                0      0 49152      0 LISTEN
osol.local.56579           *.*                0      0 49152      0 LISTEN
osol.local.36930           *.*                0      0 49152      0 LISTEN
osol.local.52595           *.*                0      0 49152      0 LISTEN
osol.local.43331           *.*                0      0 49152      0 LISTEN
osol.local.46748           *.*                0      0 49152      0 LISTEN
osol.local.38222           *.*                0      0 49152      0 LISTEN
osol.local.54168           *.*                0      0 49152      0 LISTEN
osol.local.36757           *.*                0      0 49152      0 LISTEN
osol.local.38096           *.*                0      0 49152      0 LISTEN
osol.local.47494           *.*                0      0 49152      0 LISTEN
osol.local.45057           *.*                0      0 49152      0 LISTEN
192.168.1.239.ssh    192.168.1.244.38796  66944      0 49232      0 ESTABLISHED
      *.80                 *.*                0      0 49152      0 LISTEN
      *.*                  *.*                0      0 49152      0 IDLE

SCTP:
        Local Address                   Remote Address          Swind  Send-Q Rwind  Recv-Q StrsI/O  State
------------------------------- ------------------------------- ------ ------ ------ ------ ------- -----------
0.0.0.0                         0.0.0.0                              0      0 102400      0  32/32  CLOSED
root@osol:/boot#

Un petit man de netstat sera nécessaire.

Mais où sont donc passés mes scripts de démarrage ?

Pas là ...

root@osol:/etc# ls -l init
init     init.d/  inittab 

root@osol:/etc# ls -l inittab mnttab
-rw-r--r-- 1 root sys  1813 2009-05-14 17:48 inittab
-r--r--r-- 6 root root 1170 2009-06-22 12:11 mnttab
root@osol:/etc#
root@osol:/etc# cd init.d

root@osol:/etc/init.d# ls -C
acct         cachefs.daemon  devlinks         drvconfig    mkdtab      nscd    pppd      README    sysetup
autoinstall  deallocate      dodatadm.udaplt  ldap.client  nfs.server  pcmcia  PRESERVE  sendmail  ufs_quota


Il faudra aller jeter un oeil vers: /var/svc sachant que la gestion du démarrage des applis se fait via SMF (services management facility) à l'aide de svcs et svcadm et que les
scripts seront stockés dans : /lib/svc/method


root@osol:/etc/inet# svcs apache22
STATE          STIME    FMRI
online         12:27:06 svc:/network/http:apache22

root@osol:/etc/inet# svcs -l apache22
fmri         svc:/network/http:apache22
name         Apache 2.2 HTTP server
enabled      true
state        online
next_state   none
state_time   23 juin 2009 12:27:06 CEST
logfile      /var/svc/log/network-http:apache22.log
restarter    svc:/system/svc/restarter:default
contract_id  78
dependency   require_all/error svc:/milestone/network:default (online)
dependency   require_all/none svc:/system/filesystem/local:default (online)
dependency   optional_all/error svc:/system/filesystem/autofs:default (online)

root@osol:/etc/inet# svcadm
Usage: svcadm [-v] [cmd [args ... ]]

        svcadm enable [-rst] <service> ...      - enable and online service(s)
        svcadm disable [-st] <service> ...      - disable and offline service(s)
        svcadm restart <service> ...            - restart specified service(s)
        svcadm refresh <service> ...            - re-read service configuration
        svcadm mark [-It] <state> <service> ... - set maintenance state
        svcadm clear <service> ...              - clear maintenance state
        svcadm milestone [-d] <milestone>       - advance to a service milestone

        Services can be specified using an FMRI, abbreviation, or fnmatch(5)
        pattern, as shown in these examples for svc:/network/smtp:sendmail

        svcadm <cmd> svc:/network/smtp:sendmail
        svcadm <cmd> network/smtp:sendmail
        svcadm <cmd> network/*mail
        svcadm <cmd> network/smtp
        svcadm <cmd> smtp:sendmail
        svcadm <cmd> smtp
        svcadm <cmd> sendmail

Exemple: svcadm disable apache22 ou svcadm -t disable apache22 (pour un arret temporaire)


Pour avoir la liste des services configurables:

root@osol:/etc/inet# svcs -a




Contenu du répertoire /etc:

root@osol:/etc# ls -C



Contenu de /proc : là aussi grosse différence:

root@osol:/proc# ls -C



Contenu de /dev:

root@osol:/dev# ls -C




Le gros morceau: la gestion des disques. J'avoue que j'ai un peu de mal à piger surtout qu'il y a le zfs par là-dessus. Comme indiqué en début d'article une lecture approfondie de la doc sera nécessaire:

Extrait du man de disks:

              The /dev/dsk and /dev/rdsk directories are  checked
              for  disk  entries  -  that is, symbolic links with
              names of the form cN[tN]dNsN, or cN[tN]dNpN,  where
              N  represents  a  decimal number. cN is the logical
              controller number, an arbitrary number assigned  by
              this  program  to  designate a particular disk con-
              troller. The first controller found  on  the  first
              occasion  this  program  is  run  on  a  system, is
              assigned number 0. tN is the bus-address number  of
              a  subsidiary  controller  attached to a peripheral
              bus such as SCSI or  IPI  (the  target  number  for
              SCSI, and the facility number for IPI controllers).
              dN is the number of the disk attached to  the  con-
              troller.  sN is the slice number on the disk. pN is
              the FDISK partition number used by fdisk(1M).  (x86
              Only)

FILES
     /dev/dsk/*     Disk entries (block device interface)

     /dev/rdsk/*    Disk entries (character device interface)

     /devices/*     Device special files (minor device nodes)

Un disque s'appellera donc par exemple: c8t0d0s2


La commande lspci n'est pas disponible. On la remplace par: scanpci / prtdiag.

root@osol:/usr/sbin# scanpci -v

extrait du résultat:

pci bus 0x0000 cardnum 0x18 function 0x07: vendor 0x15ad device 0x07a0
 VMware Inc Device unknown
 CardVendor 0x0000 card 0x0000 (Card unknown)
  STATUS    0x0010  COMMAND 0x0007
  CLASS     0x06 0x04 0x00  REVISION 0x01
  BIST      0x00  HEADER 0x81  LATENCY 0x00  CACHE 0x08
  MAX_LAT   0x00  MIN_GNT 0x07  INT_PIN 0x00  INT_LINE 0xff

pci bus 0x0002 cardnum 0x00 function 0x00: vendor 0x8086 device 0x100f
 Intel Corporation 82545EM Gigabit Ethernet Controller (Copper)
 CardVendor 0x15ad card 0x0750 (VMware Inc, Abstract PRO/1000 MT Single Port Adapter)
  STATUS    0x0230  COMMAND 0x0017
  CLASS     0x02 0x00 0x00  REVISION 0x01
  BIST      0x00  HEADER 0x00  LATENCY 0x00  CACHE 0x10
  BASE0     0xd8920000 SIZE 131072  MEM
  BASE2     0xd8900000 SIZE 65536  MEM
  BASE4     0x00002000 SIZE 64  I/O
  BASEROM   0x00000000  addr 0x00000000
  MAX_LAT   0x00  MIN_GNT 0xff  INT_PIN 0x01  INT_LINE 0x0a
.......


root@osol:/usr/sbin# prtdiag -lv

System Configuration: VMware, Inc. VMware Virtual Platform
BIOS Configuration: Phoenix Technologies LTD 6.00 07/29/2008

==== Processor Sockets ====================================

Version                          Location Tag
-------------------------------- --------------------------
                                 CPU socket #0

==== Memory Device Sockets ================================

Type        Status Set Device Locator      Bank Locator
----------- ------ --- ------------------- ----------------
DRAM        in use 0   RAM slot #0         RAM slot #0
DRAM        in use 0   RAM slot #1         RAM slot #1
DRAM        in use 0   RAM slot #2         RAM slot #2
DRAM        empty  0   RAM slot #3         RAM slot #3

==== On-Board Devices =====================================
VMware SVGA II
ES1371

==== Upgradeable Slots ====================================

ID  Status    Type             Description
--- --------- ---------------- ----------------------------
0   unknown   ISA              ISA Slot J8
0   unknown   ISA              ISA Slot J9
0   unknown   ISA              ISA Slot J10
1   in use    PCI              PCI Slot J11
2   in use    PCI              PCI Slot J12
3   in use    PCI              PCI Slot J13
4   available PCI              PCI Slot J14


J'ai manipé un peu la gestion des disques:

root@osol:~# zpool status
  pool: rpool
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c8t0d0s0  ONLINE       0     0     0

errors: No known data errors

Le disque est nommé : c8t0d0s0 (oui je sais ça vaut pas un simple hda ou sda :)

J'ai ensuite ajouté à chaud un disque dans la vm et l'ai immédiatement utilisé en créant un pool :

root@osol:~# format
Searching for disks...done


AVAILABLE DISK SELECTIONS:
       0. c8t0d0 <DEFAULT cyl 3069 alt 2 hd 128 sec 32>
          /pci@0,0/pci15ad,1976@10/sd@0,0
       1. c8t1d0 <DEFAULT cyl 1022 alt 2 hd 64 sec 32>
          /pci@0,0/pci15ad,1976@10/sd@1,0
Specify disk (enter its number): 1
selecting c8t1d0
[disk formatted]
No Solaris fdisk partition found.

format> quit

root@osol:~# zpool create mypool c8t1d0



root@osol:~# zpool status
  pool: mypool
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        mypool      ONLINE       0     0     0
          c8t1d0    ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c8t0d0s0  ONLINE       0     0     0

errors: No known data errors


root@osol:~# zpool list
NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
mypool  1008M   136K  1008M     0%  ONLINE  -
rpool   5,47G  3,28G  2,19G    59%  ONLINE  -

root@osol:~# df -hT
Filesystem    Type    Size  Used Avail Use% Mounted on
rpool/ROOT/opensolaris
               zfs    5,3G  3,2G  2,2G  60% /
swap         tmpfs    367M  308K  367M   1% /etc/svc/volatile
/usr/lib/libc/libc_hwcap2.so.1
              lofs    5,3G  3,2G  2,2G  60% /lib/libc.so.1
swap         tmpfs    367M   16K  367M   1% /tmp
swap         tmpfs    367M   48K  367M   1% /var/run
rpool/export   zfs    2,2G   21K  2,2G   1% /export
rpool/export/home
               zfs    2,2G   21K  2,2G   1% /export/home
rpool/export/home/pme
               zfs    2,2G   11M  2,2G   1% /export/home/pme
rpool          zfs    2,2G   79K  2,2G   1% /rpool
mypool         zfs    976M   19K  976M   1% /mypool

Une vidéo présentait quelques opérations sur les pools que j'ai reproduites histoire de "voir":

root@osol:~# zfs create mypool/patrick

root@osol:~# zfs list
NAME                     USED  AVAIL  REFER  MOUNTPOINT
mypool                    98K   976M    19K  /mypool
mypool/patrick            19K   976M    19K  /mypool/patrick
rpool                   3,28G  2,10G  78,5K  /rpool
rpool/ROOT              3,27G  2,10G    19K  legacy
rpool/ROOT/opensolaris  3,27G  2,10G  3,11G  /
rpool/export            11,0M  2,10G    21K  /export
rpool/export/home       10,9M  2,10G    21K  /export/home
rpool/export/home/pme   10,9M  2,10G  10,9M  /export/home/pme

root@osol:/# mkdir /export/home/users

root@osol:/# zfs set mountpoint=/export/home/users mypool/patrick

root@osol:/# zfs list
NAME                     USED  AVAIL  REFER  MOUNTPOINT
mypool                   110K   976M    21K  /mypool
mypool/patrick            19K   976M    19K  /export/home/users
rpool                   3,28G  2,10G  78,5K  /rpool
rpool/ROOT              3,27G  2,10G    19K  legacy
rpool/ROOT/opensolaris  3,27G  2,10G  3,11G  /
rpool/export            11,0M  2,10G    21K  /export
rpool/export/home       10,9M  2,10G    22K  /export/home
rpool/export/home/pme   10,9M  2,10G  10,9M  /export/home/pme

root@osol:/# cat /dev/urandom > /export/home/users/fichier &
[1] 817
root@osol:/# zpool iostat -v 3
               capacity     operations    bandwidth
pool         used  avail   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
mypool      91,3M   917M      0      4  3,57K   162K
  c8t1d0    91,3M   917M      0      4  3,57K   162K
----------  -----  -----  -----  -----  -----  -----
rpool       3,28G  2,19G      7      1   447K  16,9K
  c8t0d0s0  3,28G  2,19G      7      1   447K  16,9K
----------  -----  -----  -----  -----  -----  -----

               capacity     operations    bandwidth
pool         used  avail   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
mypool       120M   888M      0    206  60,9K  9,38M
  c8t1d0     120M   888M      0    206  60,9K  9,38M
----------  -----  -----  -----  -----  -----  -----
rpool       3,28G  2,19G      0      0      0      0
  c8t0d0s0  3,28G  2,19G      0      0      0      0
----------  -----  -----  -----  -----  -----  -----

root@osol:/# fg
cat /dev/urandom > /export/home/users/fichier
^C

root@osol:/# df -hT
Filesystem    Type    Size  Used Avail Use% Mounted on
rpool/ROOT/opensolaris
               zfs    5,3G  3,2G  2,2G  60% /
swap         tmpfs    365M  308K  364M   1% /etc/svc/volatile
/usr/lib/libc/libc_hwcap2.so.1
              lofs    5,3G  3,2G  2,2G  60% /lib/libc.so.1
swap         tmpfs    364M   16K  364M   1% /tmp
swap         tmpfs    364M   48K  364M   1% /var/run
rpool/export   zfs    2,2G   21K  2,2G   1% /export
rpool/export/home
               zfs    2,2G   22K  2,2G   1% /export/home
rpool/export/home/pme
               zfs    2,2G   11M  2,2G   1% /export/home/pme
rpool          zfs    2,2G   79K  2,2G   1% /rpool
mypool         zfs    768M   19K  768M   1% /mypool
mypool/patrick zfs    976M  209M  768M  22% /export/home/users

root@osol:/# zfs create mypool/patrick/user1
root@osol:/# zfs create mypool/patrick/user2
root@osol:/# zfs create mypool/patrick/user3

root@osol:/# zfs list
NAME                     USED  AVAIL  REFER  MOUNTPOINT
mypool                   210M   766M    19K  /mypool
mypool/patrick           210M   766M   210M  /export/home/users
mypool/patrick/user1      19K   766M    19K  /export/home/users/user1
mypool/patrick/user2      19K   766M    19K  /export/home/users/user2
mypool/patrick/user3      19K   766M    19K  /export/home/users/user3
rpool                   3,28G  2,10G  78,5K  /rpool
rpool/ROOT              3,27G  2,10G    19K  legacy
rpool/ROOT/opensolaris  3,27G  2,10G  3,11G  /
rpool/export            11,0M  2,10G    21K  /export
rpool/export/home       10,9M  2,10G    22K  /export/home
rpool/export/home/pme   10,9M  2,10G  10,9M  /export/home/pme

root@osol:/# zfs set quota=10m mypool/patrick/user1

root@osol:/# zfs list
NAME                     USED  AVAIL  REFER  MOUNTPOINT
mypool                   210M   766M    19K  /mypool
mypool/patrick           210M   766M   210M  /export/home/users
mypool/patrick/user1      19K  9,98M    19K  /export/home/users/user1
mypool/patrick/user2      19K   766M    19K  /export/home/users/user2
mypool/patrick/user3      19K   766M    19K  /export/home/users/user3
rpool                   3,28G  2,10G  78,5K  /rpool
rpool/ROOT              3,27G  2,10G    19K  legacy
rpool/ROOT/opensolaris  3,27G  2,10G  3,11G  /
rpool/export            11,0M  2,10G    21K  /export
rpool/export/home       10,9M  2,10G    22K  /export/home
rpool/export/home/pme   10,9M  2,10G  10,9M  /export/home/pme


Côté réseau les seuls fichiers que j'ai trouvés contenant les infos ip:

root@osol:/etc# cat defaultrouter
192.168.1.1

root@osol:/etc# cat hostname.e1000g0
192.168.1.239

root@osol:/etc# cat hosts
::1 osol osol.local localhost loghost
127.0.0.1  osol.local localhost loghost


root@osol:/etc/inet# cat netmasks |egrep -v '^$|^#'
192.168.1.0             255.255.255.0

root@osol:/etc/inet# cat networks |egrep -v '^$|^#'
loopback        127
arpanet         10              arpa    # Historical


Et j'ai gardé le meilleur (et le plus simple ) pour la fin: l'install d'un apache22:

Pour l'installer on a le choix entre le packagemanager ( <=> synaptics ) ou pkg ( <=> apt-get ): pour une fois j'ai opté pour le clickodrome sinon un simple :

pkg install apache22  aurait fait l'affaire.

Ensuite il faut l'activer et le démarrer:

root@osol:/# svcs -a | grep apache
disabled       12:59:49 svc:/network/http:apache22

root@osol:/# svcadm enable apache22

Et c'est tout bon

root@osol:/# ps ax|grep apache
  2291 ?        S  0:00 /usr/apache2/2.2/bin/httpd -k start
  2292 ?        S  0:00 /usr/apache2/2.2/bin/httpd -k start
  2293 ?        S  0:00 /usr/apache2/2.2/bin/httpd -k start
  2294 ?        S  0:00 /usr/apache2/2.2/bin/httpd -k start
  2295 ?        S  0:00 /usr/apache2/2.2/bin/httpd -k start
  2296 ?        S  0:00 /usr/apache2/2.2/bin/httpd -k start
  2298 pts/3    S  0:00 grep apache

A noter que la version d'apache est la 2.2.11 (soit la dernière) et celle de php 5.2.9 juste avant dernière.


Voilà j'espère que ces quelques trucs pourront aider sachant que, ayant été agréablement surpris par cette distrib, je risque de m'y pencher un peu plus dans les mois qui viennent auquel cas j'ajouterai de nouveaux éléments.

L'impression globale est que c'est du costaud, le graphisme est superbe (même dans une vmware). Le système ZFS (d'après ce que j'ai lu un peu partout) est assez phénoménal, reste qu'il faudra un certain temps d'apprentissage.

Copies d'écrans


Liens:

http://www.murlock.org/blog/category/computer/opensolaris/

http://www.micaeldias.net/?p=103

http://opensolaris.org/os/community/zfs/whatis/

Video: http://opensolaris.org/os/community/zfs/demos/basics/

http://docs.sun.com/app/docs/doc/819-2379/archive-123?a=view

http://www.sun.com/bigadmin/content/selfheal/smf-quickstart.jsp

http://www.opensolaris.org/os/community/zfs/translations/french/faq/

http://kdl.nobugware.com/tag/opensolaris/