We are in the process of migrating this forum. A new space will be available soon. We are sorry for the inconvenience.

Instalar Proxmox 2.1 en servidor SSD con disco B visible desde las VMs


Zento
05/02/2013, 22:56
¡Qué maravilla! Gracias, Power, por el tutorial, que me ha ido estupendo.

Un detallito que me ha llevado loco es que acostumbrado a las virtualizaciones con visores, como VirtualBox, al arrancar la consola no veía nada más que el "Starting udev [OK]" y pensaba que la MV estaba fallando. Y no, es que hay que hacer esto para que salga el login: http://pve.proxmox.com/wiki/OpenVZ_Console#Centos_6

Una vez he entendido de qué iban los contenedores, todo fino fino. ¡Gracias de nuevo!

Power
29/12/2012, 00:08
Cita Publicado inicialmente por Guille
...Lo único que me preocupa es suprimir el soporte de iptables en el contenedor
¿y si quiero instalar un cortafuegos?
¿No habrá una forma menos brusca de permitir el trafico NFS?
Hola,

No entiendo mucho de IPtables, pero creo que este método de montar NFS no suprime el soporte de IPtables.

De hecho, en mis contenedores instalo el cortafuegos CSF y va muy bien.

Saludos

Guille
29/12/2012, 00:00
Chapeau al tutorial.
Sólo puntualizar que en el caso de que el contenedor sea debian hay que cambiar:

yum install nfs-utils
por

apt-get install nfs-common
Y no parece hacer falta el chkconfig


Lo único que me preocupa es suprimir el soporte de iptables en el contenedor
¿y si quiero instalar un cortafuegos?
¿No habrá una forma menos brusca de permitir el trafico NFS?

ElSorro
18/12/2012, 09:19
Si la verdad es que si.

Despues de realizar el cambio en las particiones, me saltaba otro error relaccionado con un modulo.

Pero era por que al actualizar el kernel no reinicie la maquina cuando he leido que es obligatorio.

Ahora mismo ya me realiza backup en modo snapshot perfectamente en el mismo HD.

Power
18/12/2012, 09:16
Cita Publicado inicialmente por ElSorro
Perfecto!!!

Mil gracias Power por la paciencia. Ya lo consegui.

Voy a darle caña para ver que tal rinde todo el sistema.
Hola,

Me alegra que lo hayas conseguido.
Dale duro. Ya verás que Proxmox va de maravilla.

Saludos

ElSorro
18/12/2012, 08:51
Perfecto!!!

Mil gracias Power por la paciencia. Ya lo consegui.

Voy a darle caña para ver que tal rinde todo el sistema.

Power
17/12/2012, 23:56
Cita Publicado inicialmente por ElSorro
Que tamaño puede ser el adecuado? mas o menos...

Cuando dices que le deje mas espacio ese espacio lo dejo sin asignar? Creo que me he perdido la verdad...
Hola,

Como te recomendaba, anteriormente, lee http://foros.ovh.es/showthread.php?t=8791
También te vendría bien leer http://foros.ovh.es/showthread.php?t=6506

Saludos

ElSorro
17/12/2012, 21:53
Que tamaño puede ser el adecuado? mas o menos...

Cuando dices que le deje mas espacio ese espacio lo dejo sin asignar? Creo que me he perdido la verdad...

Power
17/12/2012, 20:16
Cita Publicado inicialmente por ElSorro
vgdisplay me da esto
Código:
 --- Volume group ---
  VG Name               pve
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               454,04 GiB
  PE Size               4,00 MiB
  Total PE              116233
  Alloc PE / Size       116232 / 454,03 GiB
  Free  PE / Size       1 / 4,00 MiB
  VG UUID               31xGMz-Giir-t5XC-d8BP-KkvO-iep1-oFndDo
y lvdisplay me devuelve esto:
Código:
  --- Logical volume ---
  LV Path                /dev/pve/lv1
  LV Name                lv1
  VG Name                pve
  LV UUID                oKF7gd-1bIp-2jKp-vQfm-bZxr-6cl1-HbDC9Q
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                270,44 GiB
  Current LE             69233
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
   
  --- Logical volume ---
  LV Path                /dev/pve/lv2
  LV Name                lv2
  VG Name                pve
  LV UUID                SsN0Ah-yUEu-Qrsx-Z2IZ-Ok9J-rwm0-JxTKHX
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                183,59 GiB
  Current LE             46999
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1
Hola,

LV1: 270 GB
LV2: 183 GB
Suma: 453 GB

VG: 454 GB

Está claro que no has dejado espacio libre para que el vzdump pueda crear una LV temporal.
Ese es el problema.

Debes disminuir de tamaño alguna de las dos LVs que tienes.

Saludos

ElSorro
17/12/2012, 18:32
vgdisplay me da esto
Código:
 --- Volume group ---
  VG Name               pve
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               454,04 GiB
  PE Size               4,00 MiB
  Total PE              116233
  Alloc PE / Size       116232 / 454,03 GiB
  Free  PE / Size       1 / 4,00 MiB
  VG UUID               31xGMz-Giir-t5XC-d8BP-KkvO-iep1-oFndDo
y lvdisplay me devuelve esto:
Código:
  --- Logical volume ---
  LV Path                /dev/pve/lv1
  LV Name                lv1
  VG Name                pve
  LV UUID                oKF7gd-1bIp-2jKp-vQfm-bZxr-6cl1-HbDC9Q
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                270,44 GiB
  Current LE             69233
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
   
  --- Logical volume ---
  LV Path                /dev/pve/lv2
  LV Name                lv2
  VG Name                pve
  LV UUID                SsN0Ah-yUEu-Qrsx-Z2IZ-Ok9J-rwm0-JxTKHX
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                183,59 GiB
  Current LE             46999
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

Power
17/12/2012, 17:36
Cita Publicado inicialmente por ElSorro
Si si pero el caso es que lo tengo ahora mismo particionado asi:
Código:
S.ficheros            Size  Used Avail Use% Montado en
none                  981M  200K  981M   1% /dev
/dev/sda1             9,7G  941M  8,3G  10% /
tmpfs                 991M     0  991M   0% /lib/init/rw
tmpfs                 991M   19M  973M   2% /dev/shm
/dev/mapper/pve-lv1   269G  1,3G  254G   1% /var/lib/vz
/dev/mapper/pve-lv2   183G  188M  173G   1% /backup
/dev/fuse              30M   16K   30M   1% /etc/pve
/var/lib/vz/private/100
                       40G  672M   40G   2% /var/lib/vz/root/100
none                  512M  4,0K  512M   1% /var/lib/vz/root/100/dev
none                  512M     0  512M   0% /var/lib/vz/root/100/dev/shm
Hola,

Debes dejar un espacio libre en la VG para que vzdump cree durante su ejecución una nueva LV con los cambios que vaya habiendo.

Ejecuta los comandos vgdisplay y lvdisplay para ver el espacio del VG y de las LVs.

Saludos

ElSorro
17/12/2012, 12:45
Si si pero el caso es que lo tengo ahora mismo particionado asi:
Código:
S.ficheros            Size  Used Avail Use% Montado en
none                  981M  200K  981M   1% /dev
/dev/sda1             9,7G  941M  8,3G  10% /
tmpfs                 991M     0  991M   0% /lib/init/rw
tmpfs                 991M   19M  973M   2% /dev/shm
/dev/mapper/pve-lv1   269G  1,3G  254G   1% /var/lib/vz
/dev/mapper/pve-lv2   183G  188M  173G   1% /backup
/dev/fuse              30M   16K   30M   1% /etc/pve
/var/lib/vz/private/100
                       40G  672M   40G   2% /var/lib/vz/root/100
none                  512M  4,0K  512M   1% /var/lib/vz/root/100/dev
none                  512M     0  512M   0% /var/lib/vz/root/100/dev/shm

Power
17/12/2012, 09:57
Cita Publicado inicialmente por ElSorro
Os suena este fallo:

Código:
INFO: starting new backup job: vzdump 100 --remove 0 --mode snapshot --compress lzo --storage backup --node ksxxxxxxx
INFO: Starting Backup of VM 100 (openvz)
INFO: CTID 100 exist mounted running
INFO: status = running
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating lvm snapshot of /dev/mapper/pve-lv1 ('/dev/pve/vzsnap-ksxxxxxxx-0')
INFO:   Volume group "pve" has insufficient free space (1 extents): 256 required.
ERROR: Backup of VM 100 failed - command 'lvcreate --size 1024M --snapshot --name vzsnap-ksxxxxxxx-0 /dev/pve/lv1' failed: exit code 5
INFO: Backup job finished with errors
TASK ERROR: job errors
Yo tengo 2 particiones en el mismo HD, y montadas de la misma forma que el tutorial pero en 1 solo HD.

Hay espacio libre en las 2, tanto /var/lib como en /backup y no tengo ni idea...
Hola,

Está claro el mensaje: "insufficient free space"
Debes tener suficiente espacio libre en el grupo PVE sin ocupar por la LVM.
Durante el snapshot, vzdump creará otra LVM en ese espacio libre para ir guardando los cambios que se produzcan hasta que acabe el vzdump.

Echa una ojeada a http://foros.ovh.es/showthread.php?t=8791

Saludos

ElSorro
17/12/2012, 09:06
Os suena este fallo:

Código:
INFO: starting new backup job: vzdump 100 --remove 0 --mode snapshot --compress lzo --storage backup --node ksxxxxxxx
INFO: Starting Backup of VM 100 (openvz)
INFO: CTID 100 exist mounted running
INFO: status = running
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: creating lvm snapshot of /dev/mapper/pve-lv1 ('/dev/pve/vzsnap-ksxxxxxxx-0')
INFO:   Volume group "pve" has insufficient free space (1 extents): 256 required.
ERROR: Backup of VM 100 failed - command 'lvcreate --size 1024M --snapshot --name vzsnap-ksxxxxxxx-0 /dev/pve/lv1' failed: exit code 5
INFO: Backup job finished with errors
TASK ERROR: job errors
Yo tengo 2 particiones en el mismo HD, y montadas de la misma forma que el tutorial pero en 1 solo HD.

Hay espacio libre en las 2, tanto /var/lib como en /backup y no tengo ni idea...

Power
12/12/2012, 17:53
Hola,

He añadido un nuevo PD al final del primer mensaje de este hilo.
Es explicando la forma en que corrijo el problema que se plantea cuando al hacer fdisk -l nos dice algo como "Partition 2 does not start on physical sector boundary."

Saludos

ElSorro
12/12/2012, 16:43
Si eso pensaba.

Gracias Power por la información.

Power
12/12/2012, 16:41
Cita Publicado inicialmente por ElSorro
Alguna recomendacion de como particionar el hd de 500 gb? para hacer los backup en el mismo HD ?
Hola,

10 GB en /
2 GB swap
x GB en /var/lib/vz (de forma que tengas espacio para el tamaño de tus VMs y algo más para cuando se hace el vzdump en modo snapshot)
resto de GB en /backups (para guardar localmente los snapshots de backup)

Saludos

ElSorro
12/12/2012, 16:25
OK si he pensado en el tema de crear aparte de la particion LV (principal en /var/lib/) crear otra...

LLevo tiempo de pruebas (por cierto gracias Power) y ahora queria probar esta parte.

Estoy usando el mks2 y la verdad estoy bastante sorprendido por el rendimiento de la maquina (tengo un Atom n2800).

Alguna recomendacion de como particionar el hd de 500 gb? para hacer los backup en el mismo HD ?

Power
12/12/2012, 15:53
Cita Publicado inicialmente por ElSorro
Una pregunta que no termino de aclararme.

Con 1 solo Disco Duro como monto el sistema de Backup?? mejor dicho es posible hacerlo asi?

Estoy de prueba claro...
Hola,

Puedes crear una partición específica en el servidor principal donde hacer el backup y después transferirlo al otro servidor.
O puedes hacer directamente el backup sobre el servidor de reserva.

En cualquier caso, mi recomendación es tener el backup en varios sitios, por lo que pueda ocurrir.

Saludos

ElSorro
12/12/2012, 13:13
Una pregunta que no termino de aclararme.

Con 1 solo Disco Duro como monto el sistema de Backup?? mejor dicho es posible hacerlo asi?

Estoy de prueba claro...

luis_sanz
16/11/2012, 15:34
Cita Publicado inicialmente por Power
Hola,

Creo que es la opción --quotaugidlimit que explican en http://pve.proxmox.com/wiki/Vzctl_manual

Cada usuario del sistema tiene asignado un número.
Los usuarios "internos" (root, bin, daemon, adm, ...) tienen asignados números bajos.
Y los usuarios de las cuentas que creamos suelen tener números más altos.
(En mi caso, éstos empiezan por 500)

En mi caso tendría que poner esa opción a valor 500.
Así no limitará a los usuarios "internos" del sistema.

Es mi interpretación, pero no descartaría estar totalmente equivocado

Saludos

pues te lo comente, porque yo puse 1000 y al hacer un traslado con WHM se me jodio a mitad por ser un numero muy bajo, al quitarlo todo fue bien

Power
16/11/2012, 09:28
Cita Publicado inicialmente por luis_sanz
Power, sabes como funciona la opcion UGID limit (quotas), esque en la anterior version de proxmox era solo activado o desactivado, pero en esta tienes que introducir un numero.. ¿eso numero significa?

gracias
Hola,

Creo que es la opción --quotaugidlimit que explican en http://pve.proxmox.com/wiki/Vzctl_manual

Cada usuario del sistema tiene asignado un número.
Los usuarios "internos" (root, bin, daemon, adm, ...) tienen asignados números bajos.
Y los usuarios de las cuentas que creamos suelen tener números más altos.
(En mi caso, éstos empiezan por 500)

En mi caso tendría que poner esa opción a valor 500.
Así no limitará a los usuarios "internos" del sistema.

Es mi interpretación, pero no descartaría estar totalmente equivocado

Saludos

luis_sanz
16/11/2012, 02:56
Power, sabes como funciona la opcion UGID limit (quotas), esque en la anterior version de proxmox era solo activado o desactivado, pero en esta tienes que introducir un numero.. ¿eso numero significa?

gracias

Power
10/11/2012, 10:06
Cita Publicado inicialmente por luis_sanz
Hola Power

entiendo por tu esquema que para los backups vzdump no es necesario que las dos particiones /backups y /var/lib/vz sean LVM.. ¿cierto? yo pensaba que si lo era, pero si no lo es mucho mejor.. veo mas facil recuperar los backups por rescue si no estan en un LVM


y segundo!!
tu forma de descargar plantillas para mi es un lio.. lo veo mas lento y complicado.
simplemente comentar que entrando en el directorio /vz/template/cache y haciendo un wget http://plantilla-la-q-sea es mas rapido y funciona igual de bien, por si a alguno le interesa.


Saludos.
Hola,

Por supuesto, la partición /backups no tiene por qué ser LVM.
Sin embargo la partición /var/lib/vz, si quieres poder hacer snapshots mediante vzdump, sí debe ser LVM.
En caso contrario, puedes utilizar vzdump pero con parada de la VM durante el backup.

Respecto a las plantillas, el problema es que, cuando hice el how-to, no había plantillas de CentOS 6 en Proxmox.
Y quería hacer todo mediante menú de Proxmox.
No he probado el método que indicas, pero seguro que es más rápido y sencillo.

Saludos

luis_sanz
10/11/2012, 03:56
Cita Publicado inicialmente por Power
Hola,
Hola Power

entiendo por tu esquema que para los backups vzdump no es necesario que las dos particiones /backups y /var/lib/vz sean LVM.. ¿cierto? yo pensaba que si lo era, pero si no lo es mucho mejor.. veo mas facil recuperar los backups por rescue si no estan en un LVM


y segundo!!
tu forma de descargar plantillas para mi es un lio.. lo veo mas lento y complicado.
simplemente comentar que entrando en el directorio /vz/template/cache y haciendo un wget http://plantilla-la-q-sea es mas rapido y funciona igual de bien, por si a alguno le interesa.


Saludos.

oceano
10/10/2012, 15:44
Cita Publicado inicialmente por Ghaelito
Ahhh!! Ok, ahora si, aunque lo e hecho con bebida energética y un EG SSD normal, creí que no me iba a funcionar por culpa de la bebida... :P

Gracias!!!

Me alegro por ti ! Un saludo.

oceano
10/10/2012, 15:41
Hola,

Una pregunta.

¿Se puede realizar una copia de la máquina física también?


Gracias !

Ghaelito
10/10/2012, 15:39
Ahhh!! Ok, ahora si, aunque lo e hecho con bebida energética y un EG SSD normal, creí que no me iba a funcionar por culpa de la bebida... :P

Gracias!!!

oceano
10/10/2012, 15:36
Cita Publicado inicialmente por Ghaelito
Es decir... a mi no me sale el disco B en la interface de Prox pero al crear una CT ocupa espacio del B en vez del A que es el que estoy viendo en la interface?

O es que lo estoy haciendo todo mal?

Hola Ghaelito,

Debes crearlo para que te aparezca.

1.- Te posicionas en " Storage " en la carpeta principal, en la raiz.
2.- Add
3.- Le indicas donde quieres guardar las copias; " /backups "
4.- Indicas que tipo de extensiones se guardarán allí.

5.- Ahora ya lo tienes creado el nuevo dispositivo. Si te das cuenta, /backups no crecerá cuando realices las copias, crecerá /backups_ssdpri ( segundo disco )

6.- Puedes realizar una copia directa en el momento, posicionándote donde tienes el hostname creado por ti (verde), que desees o puedes realizar una tarea, posicionándote arriba del todo en la carpeta principal, (raiz)


La guia funciona al 100%.

Espero haberte ayudado, un saludo !

Ghaelito
10/10/2012, 13:17
Es decir... a mi no me sale el disco B en la interface de Prox pero al crear una CT ocupa espacio del B en vez del A que es el que estoy viendo en la interface?

O es que lo estoy haciendo todo mal?

oceano
09/10/2012, 20:39
Cita Publicado inicialmente por Power
Hola,

No. No hay copia entre discos.
Si un CT escribe en /backups_ssdpri, está escribiendo directamente en el directorio /backups de la máquina física (que ocupa todo el disco B).

Era lo que pretendía: tener todo el disco B como espacio de almacenamiento donde los CTs pudiesen guardar sus backups.

Saludos

Hola,

Ok, perfecto. Creo que ahora lo he comprendido bien. Es decir, NFS lo que hace es canalizar la información desde el disco A al disco B. Sólo " engorda " B.

Muchas gracias por la aclaración, estaba un poco preocupado por el motivo de que yo estoy trabajando con discos únicamente de 120GB.


Un saludo Power.

Power
09/10/2012, 17:33
Cita Publicado inicialmente por oceano
...La pregunta en si era, ¿ Cuándo se realiza un backup se copia todo, directamente, en el disco /backups_ssdpri ? o ¿ se realiza el backup en el 1º disco y otra en el 2º disco ?
Hola,

No. No hay copia entre discos.
Si un CT escribe en /backups_ssdpri, está escribiendo directamente en el directorio /backups de la máquina física (que ocupa todo el disco B).

Era lo que pretendía: tener todo el disco B como espacio de almacenamiento donde los CTs pudiesen guardar sus backups.

Saludos

oceano
09/10/2012, 17:18
Cita Publicado inicialmente por Power
Hola,

Siempre que habilites NFS en cada CT y montes el directorio /backups del servidor físico (como en el ejemplo), dispondrás de acceso al disco B del servidor físico como si fuese un directorio dentro del CT.

No hay copias.
La gran maravilla que es NFS te permite ver, como directorios locales, unidades de disco de otras máquinas y trabajar con ellas exactamente igual que con directorios locales.

Saludos
Hola Power,

Creo que no he llegado a explicarme bien. Si, esto anterior que has comentado lo tengo claro.

La pregunta en si era, ¿ Cuándo se realiza un backup se copia todo, directamente, en el disco /backups_ssdpri ? o ¿ se realiza el backup en el 1º disco y otra en el 2º disco ?

Gracias

Power
09/10/2012, 17:09
Cita Publicado inicialmente por oceano
Power, una pregunta por favor.
Los CT que se van creando, se canalizan desde /backups a /backups_ssdpri.

Pero ¿ Es así literalmente cómo sucede ? Es decir, el contenido es almacenado totalmente en el segundo disco o, ¿ Es almacenado en el primer disco y una copia es guardada automática y secuencialmente en el segundo disco ?
Hola,

Siempre que habilites NFS en cada CT y montes el directorio /backups del servidor físico (como en el ejemplo), dispondrás de acceso al disco B del servidor físico como si fuese un directorio dentro del CT.

No hay copias.
La gran maravilla que es NFS te permite ver, como directorios locales, unidades de disco de otras máquinas y trabajar con ellas exactamente igual que con directorios locales.

Saludos

Ghaelito
09/10/2012, 13:31
Me viene de oro para el nuevo EG que me pillo mañana!!

oceano
09/10/2012, 13:05
Hola,

Power, una pregunta por favor.

Los CT que se van creando, se canalizan desde /backups a /backups_ssdpri.

Pero ¿ Es así literalmente cómo sucede ? Es decir, el contenido es almacenado totalmente en el segundo disco o, ¿ Es almacenado en el primer disco y una copia es guardada automática y secuencialmente en el segundo disco ?


Muchas gracias por la aclaración.


Un cordial saludo !

P.D. Esto es una maravilla !!!

oceano
17/07/2012, 17:26
Cita Publicado inicialmente por Power
Hola oceano,

Te contesto por puntos.
1.- Sólo había que añadir:
Código:
/dev/vg1/lv1 /var/lib/vz ext4 defaults,noatime 0 2
/dev/sdb1 /backups ext4 defaults,noatime 0 3
2.- Corregido el error. Gracias.
(Podría haberlo leído 1000 veces y no me habría dado cuenta)

3.- Yo prefiero borrar antes todos los PV, VG y LV.
Y después, eliminar la partición del disco B antes de volver a crearla.
(Son manías ... pero que me funcionan)

Lo de "Disk /dev/dm-0 doesn't contain a valid partition table" siempre sale.
No tengo ni idea de qué es eso.
Pero da igual. Todo funciona perfectamente.

Saludos
Hola,

Bueno, voy a reiniciar una nueva instalación desde 0 nuevamente, es posible que esté cometiendo algún fallo yo y no me de cuenta.

Al final me saldrá con los ojos cerrados !


Por cierto, sobre el dispositivo desconocido, he leido en otro foro que es device manager (LVM2). Ni idea. Tengo un presentimiento que pudiera ser el disco que se queda libre de los dos dispositivos sda y sdb

" I've seen this on many systems with lvm. I always thought it was normal
and I just ignored them. But I do have some systems that have lvm that
don't show those errors. "

Muchas Gracias, saludos Power !

Power
17/07/2012, 16:52
Hola oceano,

Te contesto por puntos.
1.- Sólo había que añadir:
Código:
/dev/vg1/lv1 /var/lib/vz ext4 defaults,noatime 0 2
/dev/sdb1 /backups ext4 defaults,noatime 0 3
2.- Corregido el error. Gracias.
(Podría haberlo leído 1000 veces y no me habría dado cuenta)

3.- Yo prefiero borrar antes todos los PV, VG y LV.
Y después, eliminar la partición del disco B antes de volver a crearla.
(Son manías ... pero que me funcionan)

Lo de "Disk /dev/dm-0 doesn't contain a valid partition table" siempre sale.
No tengo ni idea de qué es eso.
Pero da igual. Todo funciona perfectamente.

Saludos

oceano
17/07/2012, 13:09
Cita Publicado inicialmente por Power
Hola,

No entiendo por qué has puesto los DNS de Google en el /etc/resolv.conf
En mi caso, funciona todo de maravilla sin cambiar nada en ese fichero.
Está el DNS de OVH y va correcto.

Respecto a que no veas en el directorio /backups_ssdpri del CT los ficheros que hay en /backups del servidor anfitrión puede ser:
- Por los permisos que tengan esos ficheros
- O porque no tengas bien montado NFS
(Me inclino más por sospechar de lo segundo)

Comprueba si al ejecutar el comando mount en el CT te aparece la línea que indica que ha montado ese directorio por NFS.

A mí me funcionó perfectamente bien cuando hace unos días monté otro servidor siguiendo la guía al pie de la letra.

Saludos

Hola Power,

* 1.- Creo que el fallo está aquí, aunque no entiendo que puede estar pasando. Cuando entro al archivo nano /etc/fstab para modificarlo, únicamente me aparecían como que /sda1 y /sda2, la partición sda3 y sdb1 no aparecía en la entrada original. Es decir, aparecía así:

#
/dev/sda1 / ext4 errors=remount-ro,discard 0 1
/dev/sda2 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0

Lo que hice, fue añadir en bloque todo el conjunto que tú indicabas debía quedar al final.


* 2.- Creo haber encontrado una errata en la explicación.

Si tenemos creados PVs, VGs o LVs, primero eliminarlos en orden inverso LV -> VG -> PV con los comandos

Código:
lvremove nombre
vgremove nombre
lvremove nombre CORRECTO = pvremove nombre

Podría existír algún error más ?

* 3.- Por otro lado, cuando he realizado una nueva instalación como comenté, el disco 2º tenía una única partición hecha ya y NO la he borrado y posteriormente creado y formateado, SOLO he formateado sdb1, puesto que ya estaba en una única partición y al finalizar este comando mkfs.ext4 /dev/sdb1, decía que todo estaba correcto.

root@12345:~# fdisk -l

Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0003d86b

Device Boot Start End Blocks Id System
/dev/sda1 * 1 1530 12286976+ 83 Linux
/dev/sda2 1530 1785 2046976 82 Linux swap / Solaris
/dev/sda3 1785 14593 102882272 8e Linux LVM

Disk /dev/sdb: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Device Boot Start End Blocks Id System
/dev/sdb1 1 14593 117218241 83 Linux


¿Este de abajo de dónde ha salido? En este paso, " Empezamos creando el PV, el VG (vg1) y el LV (lv1) de 250 GB para dejar espacio para la LV temporal que se creará al hacer vzdump en modo snapshoot " Le di 70GB, pero ahora aparecen 75.2.

Código:
pvcreate /dev/sda3
vgcreate vg1 /dev/sda3
lvcreate --size 70G --name lv1 vg1


Disk /dev/dm-0: 75.2 GB, 75161927680 bytes
255 heads, 63 sectors/track, 9137 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/dm-0 doesn't contain a valid partition table

root@12345:~#


Podrías darme alguna idea de que podría estar pasando Power, muchas gracias por todo. Un saludo !

Power
15/07/2012, 21:10
Cita Publicado inicialmente por oceano
Hola Power,

No, no tenía instalado ningún firewall ni tampoco apenas medidas de seguridad.

El problema o mejor dicho, la solución, estaba en añadir al archivo /etc/resolv.conf debía aparecer la dirección del servidor 8.8.8.8 (servidor de google) y no aparecía. añadir: nameserver 8.8.8.8 (He estado investigando en el foro de CentOS sobre 14: PYCURL ERROR 6 -" Couldn't resolve host `mirrorlist.centos.org` ) Por cierto, cada vez que se reinicia el CT esta dirección desaparecer como por arte de magia. Hay que introducirla nuevamente. Ya ! Esta no es la solución, pero funciona...

Ahora, ya me actualiza y conecta a internet desde el CT, pero no copia/crea el fichero desde la máquina anfitriona al contenedor en el directorio /backups_ssdpri.

Cuando monté los discos por consola como explicabas, monté el 1º sin problema alguno, pero el segundo disco estaba todo en una única partición, creo que directamente debía haberla montado y formateado, pero lo borré y volví a crear y luego, cuando le hacía un fdisk -l me indicaba que existía en el primer dísco 3 particiones en 120GB, en el segundo disco 1 partición total de 120GB y también, un 3ª disco de 102GB, si 102GB el cual no se podía eliminar. Si, lo sé, curioso, pero así era.

No le di importancia y creo que aquí está el fallo. Mañana iniciaré una instalación nueva desde 0, espero que esta vez no de fallo alguno.

Muchas muchas gracias por tu ayuda Power, sé qué de aquí saldrá algo grande !!!

Por cierto, he sido el primero en probar este manual ?

Graci@s !!!

POWER +10
Hola,

No entiendo por qué has puesto los DNS de Google en el /etc/resolv.conf
En mi caso, funciona todo de maravilla sin cambiar nada en ese fichero.
Está el DNS de OVH y va correcto.

Respecto a que no veas en el directorio /backups_ssdpri del CT los ficheros que hay en /backups del servidor anfitrión puede ser:
- Por los permisos que tengan esos ficheros
- O porque no tengas bien montado NFS
(Me inclino más por sospechar de lo segundo)

Comprueba si al ejecutar el comando mount en el CT te aparece la línea que indica que ha montado ese directorio por NFS.

A mí me funcionó perfectamente bien cuando hace unos días monté otro servidor siguiendo la guía al pie de la letra.

Saludos

oceano
14/07/2012, 21:06
Cita Publicado inicialmente por Power
Hola,

¿Tienes instalado algún firewall instalado?
¿Has hecho el paso de modificar la línea de IPTABLES en el fichero /etc/vz/vz.conf del servidor físico?

Saludos
Hola Power,

No, no tenía instalado ningún firewall ni tampoco apenas medidas de seguridad.

El problema o mejor dicho, la solución, estaba en añadir al archivo /etc/resolv.conf debía aparecer la dirección del servidor 8.8.8.8 (servidor de google) y no aparecía. añadir: nameserver 8.8.8.8 (He estado investigando en el foro de CentOS sobre 14: PYCURL ERROR 6 -" Couldn't resolve host `mirrorlist.centos.org` ) Por cierto, cada vez que se reinicia el CT esta dirección desaparecer como por arte de magia. Hay que introducirla nuevamente. Ya ! Esta no es la solución, pero funciona...

Ahora, ya me actualiza y conecta a internet desde el CT, pero no copia/crea el fichero desde la máquina anfitriona al contenedor en el directorio /backups_ssdpri.

Cuando monté los discos por consola como explicabas, monté el 1º sin problema alguno, pero el segundo disco estaba todo en una única partición, creo que directamente debía haberla montado y formateado, pero lo borré y volví a crear y luego, cuando le hacía un fdisk -l me indicaba que existía en el primer dísco 3 particiones en 120GB, en el segundo disco 1 partición total de 120GB y también, un 3ª disco de 102GB, si 102GB el cual no se podía eliminar. Si, lo sé, curioso, pero así era.

No le di importancia y creo que aquí está el fallo. Mañana iniciaré una instalación nueva desde 0, espero que esta vez no de fallo alguno.

Muchas muchas gracias por tu ayuda Power, sé qué de aquí saldrá algo grande !!!

Por cierto, he sido el primero en probar este manual ?

Graci@s !!!

POWER +10

Power
13/07/2012, 22:28
Cita Publicado inicialmente por oceano
Hola,

Con la ipfailover, su inversa la he escrito en el DNS-2 de dicho registrador y el automáticamente la ha enlazado a la ipfailover creada en OVH. Creo que a esto te refieres con crear un host. Es así ?

He entrado posteriormente en la url que has copiado y está correctamente creado:
nombreDado.ovh.net IN A DirecciónIP 86400s (1d)

También, me permite realizar ping desde mi pc a nombreDado.ovh.net, ningún paquete perdido, todo correcto.

En la interface de Proxmox el CT está funcionando correctamente con la Ip failover asignada.

PERO, si realizo ping dentro de root@nombreDado, es decir desde consola dentro de CentOS ya, me corta toda conexión con el exterior. No me permite realizar ningún tipo de conexión al exterior.

Hay alguien que lo ha implementado sin tener un servidor DNS propio y está en mi caso y pueda indicarme dónde podría estar el fallo ?

Muchas gracias.
Hola,

¿Tienes instalado algún firewall instalado?
¿Has hecho el paso de modificar la línea de IPTABLES en el fichero /etc/vz/vz.conf del servidor físico?

Saludos

oceano
13/07/2012, 21:38
Cita Publicado inicialmente por Power
Hola,

Me parece que no tienes claro el tema de los DNS.

- Tienes el dominio midominio.com registrado en un registrador de dominios
- En ese registrador creas el host ssdpri.midominio.com dirigido a la IP failover del CT.
- Esperas que se propague.
- Compruebas, por ejemplo, en http://network-tools.com/nslook/ que ssdpri.midominio.com está bien asignado a la IP failover del CT
- Compruebas que puedes, desde tu ordenador, hacer ping a ssdpri.midominio.com
- Si no te va, comprueba en el interface de Proxmox que el CT está funcionando y tiene asignada esa IP

¿Te funcionan esos pasos?

Saludos
Hola,

Con la ipfailover, su inversa la he escrito en el DNS-2 de dicho registrador y el automáticamente la ha enlazado a la ipfailover creada en OVH. Creo que a esto te refieres con crear un host. Es así ?

He entrado posteriormente en la url que has copiado y está correctamente creado:
nombreDado.ovh.net IN A DirecciónIP 86400s (1d)

También, me permite realizar ping desde mi pc a nombreDado.ovh.net, ningún paquete perdido, todo correcto.

En la interface de Proxmox el CT está funcionando correctamente con la Ip failover asignada.

PERO, si realizo ping dentro de root@nombreDado, es decir desde consola dentro de CentOS ya, me corta toda conexión con el exterior. No me permite realizar ningún tipo de conexión al exterior.

Hay alguien que lo ha implementado sin tener un servidor DNS propio y está en mi caso y pueda indicarme dónde podría estar el fallo ?

Muchas gracias.

Power
13/07/2012, 18:28
Cita Publicado inicialmente por oceano
Hola Power.

Si, por SSH si puedo entrar, pero no me permite hacer nada, ni ping al exterior. La cuestión es esta, no sé donde está el fallo.

[root@nombreDado~]# ping www.google.com
ping: unknown host www.google.com
[root@nombreDado~]#

Por otro lado, yo tampoco tengo los dominios registrados en OVH, los tengo en otra empresa, lo que hago es allí poner la DNS principal y Secundaria apuntando a OVH con el dominio que quiero utilizar para Proxmox. Quizá esté aquí el fallo, he utilizado el dominio, ovh.net debiendo haber utilizado mi propio dominio. Es decir,

nombreDado.MI_DOMINIO.xxx y posteriormente relacionando donde correspondía.

Comento más adelante.

Gracias !
Hola,

Me parece que no tienes claro el tema de los DNS.

- Tienes el dominio midominio.com registrado en un registrador de dominios
- En ese registrador creas el host ssdpri.midominio.com dirigido a la IP failover del CT.
- Esperas que se propague.
- Compruebas, por ejemplo, en http://network-tools.com/nslook/ que ssdpri.midominio.com está bien asignado a la IP failover del CT
- Compruebas que puedes, desde tu ordenador, hacer ping a ssdpri.midominio.com
- Si no te va, comprueba en el interface de Proxmox que el CT está funcionando y tiene asignada esa IP

¿Te funcionan esos pasos?

Saludos

oceano
13/07/2012, 18:14
Cita Publicado inicialmente por Power
Hola,

Eso tiene pinta de que no tienes red desde la VM hacia Internet.
¿Puedes entrar en la VM directamente por SSH?
Una vez dentro ¿puedes hacer ping a máquinas ajenas?

De la parte que comentas sobre configuración de DNS del Manager de OVH.
Yo mis dominios no los registro en Manager.
(Para no poner todos los huevos en al misma cesta )
Y no sé cómo va el tema de los DNS en OVH.
Pero no me ha gustado nada eso que dices de:
Dominio: 1* nombreDado.ovh.net
Si es un dominio tuyo, se llamará nombreDado (por ejemplo, pepito.com), sin lo de .ovh.net

Saludos

Hola Power.

Si, por SSH si puedo entrar, pero no me permite hacer nada, ni ping al exterior. La cuestión es esta, no sé donde está el fallo.

[root@nombreDado~]# ping www.google.com
ping: unknown host www.google.com
[root@nombreDado~]#

Por otro lado, yo tampoco tengo los dominios registrados en OVH, los tengo en otra empresa, lo que hago es allí poner la DNS principal y Secundaria apuntando a OVH con el dominio que quiero utilizar para Proxmox. Quizá esté aquí el fallo, he utilizado el dominio, ovh.net debiendo haber utilizado mi propio dominio. Es decir,

nombreDado.MI_DOMINIO.xxx y posteriormente relacionando donde correspondía.

Comento más adelante.

Gracias !

Power
13/07/2012, 18:00
Cita Publicado inicialmente por oceano
Hola Power,

Me gustaría hacerte una consulta puesto que me permite acceder al VM, mejor dicho CT en la finalización de su creación, mediante SSH, pero cuando intento actualizar el sistema, me da un error abajo indicado.

Explicaré los pasos que he seguido.

En la creación del “Registro A“ o redirección IP, en el panel de control de OVH, no he encontrado otra forma de hacerlo que dentro del apartado GESTION DNS / DNS SECUNDARIO. Como recordarás, tengo el dominio que quiero enlazar en otro proveedor de servicios.

Lo he configurado del siguiente modo.

Dominio: 1* nombreDado.ovh.net
Fecha: Fecha/hora
IP primaria: 2* IP- FO
DNS Secundario: 3* DNS-2
Estado: ACTIVE

1* Escrito en /etc/hostname y/etc/hosts nombreDado.dominio.xxx y ipFailOver_servidor_ssd nombreDado.midominio.xxx nombreDado
2* Creado con la Dirección IP Failover
3* DNS 2. Puesta en las DNS del proveedor del dominio externo apuntando al servidor dedicado también.

Dentro de la creación de OpenVZ Container (CT) - *(PESTAÑAS)

(General) en “ Hostname “ debo escribir en nombre del dominio anteriormente nombrado en 1* o es de libre elección ? Yo he puesto el nombre de 1*.
(Network) he puesto la dirección IP FailOver anteriormente creada.
(DNS) he puesto 1.- nombre del Dominio afectado, contratado en el proveedor externo 2.- la IP principal y 3.- IP Failover

En su finalización obtengo el resultado:

Creating container private area
(/var/lib/vz/template/cache/centos-6-x86_64.tar.gz)
Performing postcreate
actions
CT configuration saved to /etc/pve/openvz/100.conf
Container
private area was created
TASK OK

PERO, cuando entro dentro del servidor CentOS de la VM ( CT ) por SSH y realizo un update y upgrade obtengo…

[root@nombreDado ~]# yum update
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
Could not retrieve mirrorlist http://mirrorlist.centos.org/?releas...x86_64&repo=os error was
14: PYCURL ERROR 6 - "Couldn't resolve host 'mirrorlist.centos.org'"
Error: Cannot find a valid baseurl for repo: base
[root@nombreDado ~]# yum upgrade
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
Could not retrieve mirrorlist http://mirrorlist.centos.org/?releas...x86_64&repo=os error was
14: PYCURL ERROR 6 - "Couldn't resolve host 'mirrorlist.centos.org'"
Error: Cannot find a valid baseurl for repo: base
[root@nombreDado ~]#

¿Podrías indicarme cuál ha sido el error?

Muchas gracias por tu ayuda.
Hola,

Eso tiene pinta de que no tienes red desde la VM hacia Internet.
¿Puedes entrar en la VM directamente por SSH?
Una vez dentro ¿puedes hacer ping a máquinas ajenas?

De la parte que comentas sobre configuración de DNS del Manager de OVH.
Yo mis dominios no los registro en Manager.
(Para no poner todos los huevos en al misma cesta )
Y no sé cómo va el tema de los DNS en OVH.
Pero no me ha gustado nada eso que dices de:
Dominio: 1* nombreDado.ovh.net
Si es un dominio tuyo, se llamará nombreDado (por ejemplo, pepito.com), sin lo de .ovh.net

Saludos

oceano
13/07/2012, 17:03
Hola Power,

Me gustaría hacerte una consulta puesto que me permite acceder al VM, mejor dicho CT en la finalización de su creación, mediante SSH, pero cuando intento actualizar el sistema, me da un error abajo indicado.

Explicaré los pasos que he seguido.

En la creación del “Registro A“ o redirección IP, en el panel de control de OVH, no he encontrado otra forma de hacerlo que dentro del apartado GESTION DNS / DNS SECUNDARIO. Como recordarás, tengo el dominio que quiero enlazar en otro proveedor de servicios.

Lo he configurado del siguiente modo.

Dominio: 1* nombreDado.ovh.net
Fecha: Fecha/hora
IP primaria: 2* IP- FO
DNS Secundario: 3* DNS-2
Estado: ACTIVE

1* Escrito en /etc/hostname y/etc/hosts nombreDado.dominio.xxx y ipFailOver_servidor_ssd nombreDado.midominio.xxx nombreDado
2* Creado con la Dirección IP Failover
3* DNS 2. Puesta en las DNS del proveedor del dominio externo apuntando al servidor dedicado también.

Dentro de la creación de OpenVZ Container (CT) - *(PESTAÑAS)

(General) en “ Hostname “ debo escribir en nombre del dominio anteriormente nombrado en 1* o es de libre elección ? Yo he puesto el nombre de 1*.
(Network) he puesto la dirección IP FailOver anteriormente creada.
(DNS) he puesto 1.- nombre del Dominio afectado, contratado en el proveedor externo 2.- la IP principal y 3.- IP Failover

En su finalización obtengo el resultado:

Creating container private area
(/var/lib/vz/template/cache/centos-6-x86_64.tar.gz)
Performing postcreate
actions
CT configuration saved to /etc/pve/openvz/100.conf
Container
private area was created
TASK OK

PERO, cuando entro dentro del servidor CentOS de la VM ( CT ) por SSH y realizo un update y upgrade obtengo…

[root@nombreDado ~]# yum update
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
Could not retrieve mirrorlist http://mirrorlist.centos.org/?releas...x86_64&repo=os error was
14: PYCURL ERROR 6 - "Couldn't resolve host 'mirrorlist.centos.org'"
Error: Cannot find a valid baseurl for repo: base
[root@nombreDado ~]# yum upgrade
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
Could not retrieve mirrorlist http://mirrorlist.centos.org/?releas...x86_64&repo=os error was
14: PYCURL ERROR 6 - "Couldn't resolve host 'mirrorlist.centos.org'"
Error: Cannot find a valid baseurl for repo: base
[root@nombreDado ~]#

¿Podrías indicarme cuál ha sido el error?

Muchas gracias por tu ayuda.

jmginer
13/07/2012, 11:41
Cita Publicado inicialmente por Power
Respecto a lo que comentas sobre el tema del TRIM, lo estuvimos comentando en este hilo: http://foros.ovh.es/showthread.php?t=9761
La verdad es que la diferencia de velocidad en escritura entre utilizar discard y no utilizarlo, es bestial.
Da un poco de miedo ese script...

Power
10/07/2012, 17:39
Hola,

He abierto un nuevo hilo para discutir sobre la opción discard en discos SSD:
http://foros.ovh.es/showthread.php?p=64310

Saludos

internia
10/07/2012, 11:22
Power, solo tengo una palabra para el tuto: IMPRESONANTE.

Me has puesto los dientes largos... ya me estoy planteando pillar un servidor para probarlo...

Power
08/07/2012, 00:47
Cita Publicado inicialmente por oceano
En mi lugar, al no tener un servidor DNS especifico, no haré el procedimiento anteriormente explicado por ti y únicamente mantendré las DNS dadas redireccionandolas desde el registrador de dominio en/los dominio/os deseados.

Entiendo que en:
1.- /etc/hostname debería dejar esos nombres de dominio los cuales quiero enlazar a proxmox, verdad ? Es decir, dentro de este archivo únicamente: nombreDeDominio.com " Ahora aparece el nombre del servidor únicamente. "
2.- /etc/hosts cambiar

direcciónIP nsXXXXXX.ovh.net nombreDeDominio

Estoy en lo correcto ?
En caso de conservar los DNS de OVH para tu dominio, debes crear un registro A, a través del Manager, que defina el host ssdpri.midominio.com (o como quieras llamarlo) con la IP de tu máquina.

El resto de los pasos son iguales.
- Crear la inversa en el Manager de OVH: Servicios -> Inversa IPv4
- Dejar en /etc/hostname sólo: ssdpri.midominio.com
- Modificar /etc/hosts poniendo:
ip_servidor_ssd ssdpri.midominio.com ssdpri

Saludos

oceano
07/07/2012, 20:47
Hola Power,

En mi lugar, al no tener un servidor DNS especifico, no haré el procedimiento anteriormente explicado por ti y únicamente mantendré las DNS dadas redireccionandolas desde el registrador de dominio en/los dominio/os deseados.

Entiendo que en:

1.- /etc/hostname debería dejar esos nombres de dominio los cuales quiero enlazar a proxmox, verdad ? Es decir, dentro de este archivo únicamente: nombreDeDominio.com " Ahora aparece el nombre del servidor únicamente. "

2.- /etc/hosts cambiar

direcciónIP nsXXXXXX.ovh.net nombreDeDominio


Estoy en lo correcto ?


Gracias.

Power
07/07/2012, 10:47
Cita Publicado inicialmente por oceano
...Imagino que no variará en grado alguno si este paso lo realizo directamente con las DNS de ovh.es, verdad ?...
Hola,

Sin problemas.
La única diferencia es que dependes de los DNS de OVH.
Pero todo lo demás es igual.

Saludos

oceano
07/07/2012, 08:31
Hola, buenos días !

En primer lugar agradecerte tu incansable ayuda !!

Por el tema del servicio DNS, en teoría, si debería saber como funciona, fue algo que estudié hace un tiempo, pero había alguna cuestión en si que no sabía exactamente el motivo de porque la realizabas, habían elementos que no mencionabas, como por ejemplo que tienes un servidor paralelo que te ofrece las DNS y tu las redireccionas hacia otro lugar y era ahí, cuando no llegaba a comprender el fin de la cuestión, creo que ahora ya me queda algo más claro.

Por mi parte, yo también tengo tengo un registrador de dominios externo, y un/os dominio/os en si el cual/es directamente hago apuntar ns1 y ns2 a ovh.net, puesto que no tengo un servidor de dominios para hacer el juego que tú nombras anteriormente. Imagino que no variará en grado alguno si este paso lo realizo directamente con las DNS de ovh.es, verdad ?

Gracias Power, saludos !

Power
06/07/2012, 22:49
Hola,

Cita Publicado inicialmente por oceano
En mi caso, mi servidor se llamará ssdpri.midominio.com :confused: Qué quieres decir con esto ?
Hay que ponerle un nombre a cada máquina.
No me gusta el que llevan por defecto nsxxxxxx.ovh.net
Prefiero no depender de los DNS del dominio ovh.net
Cita Publicado inicialmente por oceano
Tengo los DNS de midominio.com en otro servidor. :confused: En otro servidor tuyo propio ? Debe apuntar un dominio especifico al servidor ? y si es así, las DNS 2ª cuál sería ?
Allí, creo el host ssdpri en la zona midominio.com, asignándole la ip_servidor_ssd ? El host o los DNS ? Dónde ?
Reinicio mis DNS de ese otro servidor. :confused:
Prefiero no confiar en servicios DNS ajenos.

midominio.com está registrado en un determinado registrador de dominios.
En él tengo definidos, para midominio.com los servidores DNS ns1.midominio.com y ns2.midominio.com apuntando a IP1 e IP2 respectivamente.
Tengo una máquina que tiene ese par de IPs (IP1 e IP2) y tiene funcionando un servidor DNS
En dicho servidor DNS tengo una zona DNS para midominio.com
En dicha zona DNS tengo definido el host ssdpri.midominio.com con un registro A apuntando a la IP que tiene mi servidor SSD.

Así no dependo de los servicios DNS de OVH.
Si algo de DNS falla, prefiero que esté bajo mi control y no bajo el control de OVH.

Si no has pillado totalmente el tema de los DNS, te recomiendo que busques, en Internet, algún tutorial de DNS para que te queden claros esos conceptos.

Saludos

oceano
06/07/2012, 22:18
Hola Power,

Por favor, podrías detallar este paso algo más, ando liado con ello y la verdad no me aclaro muy bien. Hasta el momento creo que lo anterior ha salido bien !

En mi caso, mi servidor se llamará ssdpri.midominio.com :confused: Qué quieres decir con esto ?
Tengo los DNS de midominio.com en otro servidor. :confused: En otro servidor tuyo propio ? Debe apuntar un dominio especifico al servidor ? y si es así, las DNS 2ª cuál sería ?
Allí, creo el host ssdpri en la zona midominio.com, asignándole la ip_servidor_ssd ? El host o los DNS ? Dónde ?
Reinicio mis DNS de ese otro servidor. :confused:

Ya debo poder hacer ping a ssdpri.midominio.com y me responderá desde la ip_servidor_ssd
Aprovecho para crear la inversa en el Manager de OVH: Servicios -> Inversa IPv4
Corregimos los ficheros /etc/hostname y /etc/hosts para que muestren el nombre correcto y completo del servidor.
En /etc/hostname sólo debe quedar:
ssdpri.midominio.com


Muchas gracias !

oceano
06/07/2012, 09:17
Hola Power,

Si, efectivamente hablaba de los modelos EG SSD Vs EG SSD MAX, ya he corregido el error.

En breve lo pondré en marcha !


GRACIAS !!!

Power
05/07/2012, 22:40
Cita Publicado inicialmente por oceano
...Este fin de semana me gustaría implementar este manual y antes de comenzar con ello, me asalta una duda pues creo que con el servidor sencillo de la clase ED SSD me vendría bien. Existiría algún inconveniente en la programación en relación al ED SSD MAX. Es decir, ED SSD Vs ED SSD MAX.

Quiero imaginar qué únicamente es por el tamaño de disco y todo lo demás no tiene relevancia alguna en la programación de este, es así Power?...
Hola,

Supongo que te referirás a un servidor EG SSD.
Efectivamente, la única diferencia es el tamaño del disco.

Yo he seguido, de nuevo, al pie de la letra, el tutorial con otro servidor y me ha funcionado todo perfectamente.

Saludos

oceano
05/07/2012, 21:53
Hola a tod@s

Este fin de semana me gustaría implementar este manual y antes de comenzar con ello, me asalta una duda pues creo que con el servidor sencillo de la clase EG SSD me vendría bien. Existiría algún inconveniente en la programación en relación al EG SSD MAX. Es decir, EG SSD Vs EG SSD MAX.

Quiero imaginar qué únicamente es por el tamaño de disco y todo lo demás no tiene relevancia alguna en la programación de este, es así Power ?

Muchas gracias !

Power
05/07/2012, 12:01
Cita Publicado inicialmente por Power
El directorio /var/lib/vz está montado en una partición LVM
Y ahí es donde están las VMs
¿Cómo hacer para limpiar también esa partición?
¿O las particiones LVM en discos SSD no tienen ese problema?
Hola,

Me autocontesto.

Parece ser que en la configuración de LVM se especifica si debe hacer discard o no, mediante el fichero /etc/lvm/lvm.conf
Ahí, hay un parámetro llamado issue_discards que controla dicha opción.
Y con el comando:
Código:
lvm dumpconfig
podemos ver si está o no activa dicha función.

Saludos
PD: Empiezo a tener mis dudas de si el parámetro issue_discards realmente activa la función TRIM o sólo lo habilita para poder utilizar el parámetro discards en el /etc/fstab

Power
05/07/2012, 10:27
Hola,

Estoy probando el script wiper.sh
Parece que funciona bien con las particiones Linux.
Pero no reconoce las particiones LVM
El directorio /var/lib/vz está montado en una partición LVM
Y ahí es donde están las VMs
¿Cómo hacer para limpiar también esa partición?
¿O las particiones LVM en discos SSD no tienen ese problema?

Saludos

Power
05/07/2012, 09:30
Cita Publicado inicialmente por jmginer
Hola, buen tuto Power, lo he visto así por encima y me he percatado de esto que pones...

Quitaremos las opciones discard que nos ha puesto el instalador de OVH.
La quitaremos porque nos enlentece, brutalmente, la escritura en los discos SSD


Hay que tener presente que si no pones discard al montar, el sistema no ejecuta las funciones TRIM sobre los SSD...
Hola José Manuel,

Muchas gracias por tu elogio al tutorial.
Viniendo de tí (gran maestro donde los haya), es un gran honor.
Y más teniendo en cuenta que, como indico en la bibliografía, en gran parte está basado en tu tutorial http://www.jmginer.eu/hosting/como-d...enamiento.html

Respecto a lo que comentas sobre el tema del TRIM, lo estuvimos comentando en este hilo: http://foros.ovh.es/showthread.php?t=9761
La verdad es que la diferencia de velocidad en escritura entre utilizar discard y no utilizarlo, es bestial.

Y creo que una buena opción puede ser no poner discard y correr, de forma regular mediante un cron, el script wiper.sh (http://sourceforge.net/projects/hdpa...ar.gz/download) propuesto por manoleet.
¿Qué te parece la idea?

Saludos

jmginer
05/07/2012, 02:17
Hola, buen tuto Power, lo he visto así por encima y me he percatado de esto que pones...

Cita Publicado inicialmente por Power
Quitaremos las opciones discard que nos ha puesto el instalador de OVH.
La quitaremos porque nos enlentece, brutalmente, la escritura en los discos SSD
Hay que tener presente que si no pones discard al montar, el sistema no ejecuta las funciones TRIM sobre los SSD.

Si es un servidor con un uso de disco moderado, no deberias tener problemas, pero si se hace un uso intensivo, por ejemplo, como sistema de cache que escribe y borra muchas veces sobre los mismos sectores, es probable que el SSD acabe funcionando más lento que un SATA normal y corriente y tengas que hacer un formato para devolverlo al estado original.

Si estás virtualizando y no sabes lo que hacen tus clientes, yo no lo quitaría.

Está todo explicado con detalle en la documentación de RedHat:
http://docs.redhat.com/docs/en-US/Re...ssdtuning.html

Gracias por la referencia

Un saludo!

Power
04/07/2012, 15:37
Cita Publicado inicialmente por ralosevilla
...Finalmente he conseguido crearlas correctamente pero me ha saltado otro problema, no se si sabeis que puede ser...
Hola,

Siempre sale:
Disk /dev/dm-0 doesn't contain a valid partition table
Creo no tiene importancia ninguna porque no existe el disco /dev/dm-0

Si no pones correctamente el contenido de /etc/fstab hay muchas posibilidades de que no se monten bien las particiones y no te funcione el servidor correctamente.

Si quieres manejar /backups desde el interface de Proxmox, puedes crearlo como un directorio de almacenamiento.

Saludos

ralosevilla
04/07/2012, 13:46
Hola Power, antes de nada agradecerte el post, lo estoy siguiendo para mi caso personal Kemsirve 24G, con disco duro de 2 TB, he llegado justo hasta la modificacion de /etc/fstab, pero me gustaria consultar algunas cosas.

He tenido problemas con la particion swap creada por el instalador de ovh, me saltaba el error "Partition 2 does not start on physical sector boundary", igual que con todas las que iba creando. Finalmente he conseguido crearlas correctamente pero me ha saltado otro problema, no se si sabeis que puede ser.

Justo cuando he hecho:

mkfs.ext4 /dev/vg1/lv1
he comprobado que ha saltado un error:

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00084b3a

Device Boot Start End Blocks Id System
/dev/sda1 * 1 1275 10238976+ 83 Linux
/dev/sda2 1276 1537 2097152 82 Linux swap / Solaris
/dev/sda3 1537 119024 943718400 8e Linux LVM
/dev/sda4 119024 243202 997456984 83 Linux

Disk /dev/dm-0: 912.7 GB, 912680550400 bytes
255 heads, 63 sectors/track, 110960 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

Disk /dev/dm-0 doesn't contain a valid partition table
No se si es preocupante o no, y que solucion tiene.

Otra cosa que me ha pasado ha sido la siguiente, como he tenido que reinstalar varias veces, hay un par de ellas que al reiniciar el servidor ya no ha dado mas señales de vida y he tenido que reinstalarlo todo... Y creo que se debe a la modificacion de /etc/fstab para que se monten automáticamente las particiones al arrancar el servidor, quizas no lo he dejado correctamente editado... por las tabulaciones, etc.... o quizas sea otra cosa, aunque yo lo achaco a esto.

Por ultimo veo en el gestor web de Proxmox, dentro de almacenamiento un registro que se refiere a /var/lib/vz... no se si deberia salir ya el de backup... algun consejo?

Bueno, espero vuestros consejos, gracias de nuevo.

Saludos.

KhalidBasiyd
25/06/2012, 03:15
¡Buen trabajo Power!

PacoSS
22/06/2012, 23:56
Buen tuto, si señor.

Has puesto el listón alto para los siguientes

oceano
22/06/2012, 15:28
Mil gracias por este manual Power. Tu ayuda desinteresada únicamente dice realmente quien eres, una gran persona. Ojalá algún día cada uno de nosotros ayude sin esperar nada a cambio...

Nuevamente, mi más sincera gratitud.

sdzzds
21/06/2012, 12:38
El mio tenia 9000 horas en los discos (pero no me han puesto problema en devolverlo)

Power
21/06/2012, 12:31
Cita Publicado inicialmente por sdzzds
Yo es que contraté uno así y me vino uno con los discos muy usados y lo devolví, por eso no me atrevo a pedir otro ahora, aún me deben la devolución del otro, tarda al parecer de 15 a 20 días...
Hola,

El mío venía con los discos nuevos (según el parámetro Power_On_Hours del comando smartctl)

A ver qué tal el siguiente (que pediré hoy o mañana)

Por cierto, /usr/sbin/smartctl viene, por defecto, sin permisos de ejecución.

Saludos

sdzzds
21/06/2012, 12:04
Yo es que contraté uno así y me vino uno con los discos muy usados y lo devolví, por eso no me atrevo a pedir otro ahora, aún me deben la devolución del otro, tarda al parecer de 15 a 20 días...

Power
21/06/2012, 11:46
Cita Publicado inicialmente por sdzzds
Por cierto hay escasez de servers SSD MAX, se ve que os ha dado por comprarlos.

@OVH ¿cuando vais a tener más? estoy a medias con las migraciones y me hacen falta unos cuantos mas!!
Hola,

Cuando yo lo pedí no había ninguno en las próximas 24 horas y habría 1 en las 72 horas siguientes.

A pesar de eso, tardé en tenerlo sólo un par de horas.
(No tengo enchufe en OVH )
Parece que ese contador no es muy real.

Saludos

sdzzds
21/06/2012, 11:41
Por cierto hay escasez de servers SSD MAX, se ve que os ha dado por comprarlos.

@OVH ¿cuando vais a tener más? estoy a medias con las migraciones y me hacen falta unos cuantos mas!!

sdzzds
21/06/2012, 11:39
Cita Publicado inicialmente por Power
Hola,

Sólo he seguido el lema de la firma del colega sdzzds: "Ningún camino fácil te llevará a algo que valga la pena"

Saludos
Así es,

Power
21/06/2012, 11:07
Hola,

Sólo he seguido el lema de la firma del colega sdzzds: "Ningún camino fácil te llevará a algo que valga la pena"
Y la verdad es que sí que me ha llevado bastante trabajo y tiempo (y una botella grande de horchata), pero espero que le sirva a algún otro colega.
Lo mismo que vuestras aportaciones en este foro me han servido a mí. Hoy por tí, mañana por mí.

Gracias por vuestros favorables comentarios y alabanzas.

Saludos

xkalagan
21/06/2012, 10:54
Sin comentarios Power,
Menudo manual... +10

Ya te has hecho accionista de Proxmox?

Eres una maquina en bruto (sin virtualizar)

Enhorabuena por el tuto.

Un abrazo.

fametown
20/06/2012, 17:03
Bueeeeeeno... te has pasado amigo... IN-CRE-I-BLE !!! Un 10 para Power !!!

sdzzds
20/06/2012, 13:07
PLAS PLAS PLAS PLAS

Bravo Power!!!!!

Inmejorable y práctico how-to, mi post número 1000 en el foro parece que estaba reservado para agradecerte esta deferencia con todos nosotros y haberte currado el tutorial que seguro nos va a venir muy bien a todos los foreros.

De nuevo mi agradecimiento al "monstruo" Power!!

buscavidas
20/06/2012, 12:38
Bestial How-To Power!!!
Enhorabuena por el currazo que te has pegado, en serio. Me quito el sombrero.
Gracias por ayudar desinteresadamente a los que acabamos de empezar con proxmox.

+10 !!

Power
20/06/2012, 12:20
Hola,

Vamos a instalar Proxmox 2.1 en un servidor EG SSD Max con 2 discos de 300 GB.
Lo haremos sin utilizar RAID-0 ni unir los discos mediante LVM striping.
(Unir los 2 discos dobla la probabilidad de perder todo en caso de fallo de cualquiera de los 2 discos)
Y vamos a hacer que las VMs puedan disponer, mediante, NFS del segundo disco del servidor.

Ingredientes:
- Un servidor EG SSD Max (con 2 discos SSD de 300 GB)
- Acceso al Manager de OVH
- Tiempo abundante (sin agobios)
- Bebida (horchata, Cocacola, Nestea, café ... cualquiera otra acorde con nuestro gusto y temporada ... dejamos las bebidas alcohólicas para la celebración final)

PARTICIONES

Empezamos por reinstalar.
Accedemos al Manager de OVH
Escogemos el servidor y vamos a Servicios -> Reinstalar/Cambiar de SO
Escogemos Proxmox 2.1 en español
Escogemos Particionado personalizado: formatear únicamente el primer disco
https://lh4.googleusercontent.com/-6...rticionado.png
Le damos 10.000 MB (10 GB) a la partición raiz / (en formato ext4, ahora que ya se puede)
Y le damos 2.000 MB (2 GB) a la partición swap
https://lh4.googleusercontent.com/-F...articiones.png
Nada más. Ya haremos el resto por comandos, porque por el Manager, además de fallar mucho, podemos tener sorpresas.
Traguito de bebida esperando el email de confirmación de OVH.
Una vez recibido el email de que está instalado, hay que entrar por ssh con la contraseña que nos han dado en el email.
Código:
ssh root@ip_servidor_ssd
Actualizar el software
Código:
apt-get update
apt-get upgrade
Cambiar la password de acceso por otra que nos guste más
Código:
passwd
Cambiar el puerto de ssh
Código:
nano /etc/ssh/sshd_config
Cambiar donde pone Port 22 por Port xxxx (siendo xxxx el puerto que queremos)
Guardar y Salir
Reiniciar el servicio ssh
Código:
/etc/init.d/ssh restart
A partir de ahora, para entrar por SSH habrá que hacerlo por:
Código:
ssh -p xxxx root@ip_servidor_ssd
Paramos el servicio vz
/etc/init.d/vz stop
Copiamos el directorio /var/lib/vz dentro del directorio /tmp
Código:
cp -ar /var/lib/vz /tmp/
Eliminamos el enlace simbólico /vz (que apunta a /var/lib/vz)
Código:
unlink /vz
Eliminamos el contenido del directorio /var/lib/vz (pero dejamos que el directorio siga existiendo)
Código:
rm -rf /var/lib/vz/*
Vamos a crear las particiones que nos faltan.
Lo haremos con fdisk
Primero vemos las particiones que tenemos hechas
Código:
fdisk -l
En mi caso me aparecen:
Device Boot Start End Blocks Id System
/dev/sda1 * 1 1275 10238976+ 83 Linux
/dev/sda2 1275 1530 2046976 82 Linux swap / Solaris
....
....
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 1306 10485760+ fd Linux raid autodetect
/dev/sdb2 1306 36416 282019840 fd Linux raid autodetect
/dev/sdb3 36416 36481 525984 82 Linux swap / Solaris
================================================
En caso de ver mensajes de tipo "Partition 2 does not start on physical sector boundary." leer el nuevo PD al final de este mensaje.
================================================


Lo primero, voy a cargarme las particiones del disco B (que había hecho OVH al instalar el servidor) y hacer una única partición Linux en él
Código:
fdisk /dev/sdb
Con "m" veo los distintos comandos:
Command action
a toggle a bootable flag
b edit bsd disklabel
c toggle the dos compatibility flag
d delete a partition
l list known partition types
m print this menu
n add a new partition
o create a new empty DOS partition table
p print the partition table
q quit without saving changes
s create a new empty Sun disklabel
t change a partition's system id
u change display/entry units
v verify the partition table
w write table to disk and exit
x extra functionality (experts only)
Me cargo la partición 1 del disco B
Command (m for help): d
Partition number (1-4): 1
Me cargo la partición 2 del disco B
Command (m for help): d
Partition number (1-4): 2
Me cargo la partición 3 del disco B
Command (m for help): d
Partition number (1-4): 3
Y ahora, ¡¡¡muy importante!!! escribo la nueva tabla de particiones (en caso contrario no se habría hecho ningún cambio)
Command (m for help): w
The partition table has been altered!
Puedo ver, con fdisk -l que, efectivamente, el disco B (/dev/sdb) ya no tiene particiones.
En algunos casos, al trabajar con fdisk nos puede decir algo de que la nueva tabla de particiones sólo estará activa al reiniciar o al hacer partprobe o kpartx
Sin problemas, ejecuto partprobe y solucionado.
Ojo, no reiniciar el servidor porque ahora tenemos parado el servicio vz y se arrancaría de nuevo.

Ahora vamos a crear la partición 3 en el disco A (/dev/sda), pero esta partición la haremos de tipo LVM
Código:
fdisk /dev/sda
Command (m for help): n (nueva partición)
Command action
e extended
p primary partition (1-4)
p (de tipo primario)
Partition number (1-4): 3
Como queremos que nos ocupe todo el espacio libre, le daremos Intro a los valores por defecto del inicio y del fin de la partición.
Y, a continuación, cambiamos el tipo de partición para que sea de tipo LVM
Command (m for help): t
Partition number (1-4): 3
Hex code (type L to list codes): 8e
Changed system type of partition 3 to 8e (Linux LVM)
Para que se grabe:
Command (m for help): w
Para que la tabla de particiones sea efectiva
Código:
partprobe
Ahora vamos a crear una única partición Linux que nos ocupe todo el disco B (podríamos haberlo hecho cuando hemos borrado sus particiones)
Código:
fdisk /dev/sdb
Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Partition number (1-4): 1
Command (m for help): w
The partition table has been altered!
Y, de nuevo ejecutamos partprobe para que se tome en cuenta la nueva tabla de particiones.
Ahora, con fdisk -l debe aparecernos la tabla de particiones correcta que queríamos
Device Boot Start End Blocks Id System
/dev/sda1 * 1 1275 10238976+ 83 Linux
/dev/sda2 1275 1530 2046976 82 Linux swap / Solaris
/dev/sda3 1530 36481 280745632 8e Linux LVM
...
...
Device Boot Start End Blocks Id System
/dev/sdb1 1 36481 293033601 83 Linux
Formateamos la nueva partición en formato ext4
Código:
mkfs.ext4 /dev/sdb1
¡¡¡ Perfecto !!! Ya podemos relajarnos un poco pensando que somos unos hachas manejando las particiones (trago de bebida como premio).

LVM

Ahora vamos con el LVM, el sistema de manejo de particiones lógicas.
Esto es para poder hacer backups, mediante vzdump en modo snapshoot que consigue una imagen instantánea de la VM sin que ésta pare de funcionar.
(Parece magia ... ¡pero lo hace!)

Lo primero y principal, para los que no nos manejamos con soltura en estos temas, es tener claro lo que es cada cosa.
PV (volúmenes físicos): se define uno independiente para cada conjunto de particiones que vaya a manejar LVM
(Un PV puede agrupar más de una partición, incluso de distintos discos)
VG (grupo de volúmenes): define un nombre para cada PV a manejar
LV (volúmenes lógicos): Son las "particiones" que manejaremos.
Cada VG puede tener varios LVs
(De hecho cuando se hace un backup mediante vzdump en modo snapshoot, se crean una nueva LV temporal dentro del VG donde está la LV que alberga /var/lib/vz
Y esta LV temporal puede fallar si no hay espacio suficiente en el VG)

En resumen, el proceso para crear es PV -> VG -> LV
Es conveniente utilizar los siguientes 3 comandos para ver lo que tenemos
Código:
pvdisplay
 vgdisplay
 lvdisplay
Si tenemos creados PVs, VGs o LVs, primero eliminarlos en orden inverso LV -> VG -> PV con los comandos
Código:
lvremove nombre
vgremove nombre
pvremove nombre
Empezamos creando el PV, el VG (vg1) y el LV (lv1) de 250 GB para dejar espacio para la LV temporal que se creará al hacer vzdump en modo snapshoot
Código:
pvcreate /dev/sda3
 vgcreate vg1 /dev/sda3
 lvcreate --size 250G --name lv1 vg1
Formateamos la nueva partición en formato ext4
Código:
mkfs.ext4 /dev/vg1/lv1
Montamos el nuevo LV (lv1) /var/lib/vz (donde irán las VMs)
Código:
mount -t ext4 /dev/vg1/lv1 /var/lib/vz
Creamos el directorio /backups
Código:
mkdir /backups
Y montamos /backups en la partición /dev/sdb1
Código:
mount -t ext4 /dev/sdb1 /backups
Copiamos de nuevo el directorio vz que habíamos guardado
Código:
cp -ar /tmp/vz /var/lib/
Y volvemos a crear el enlace simbólico /vz
Código:
ln -s /var/lib/vz /vz
Vamos a modificar /etc/fstab para que se monten automáticamente las particiones al arrancar el servidor.
Quitaremos las opciones discard que nos ha puesto el instalador de OVH.
La quitaremos porque nos enlentece, brutalmente, la escritura en los discos SSD
Y pondremos las opciones noatime que hacen que no se guarde en cada fichero la hora del último acceso.
Así ganaremos mucho tiempo (son raras las aplicaciones que utilizan la opción de leer la hora del último acceso a un fichero).
Código:
nano /etc/fstab
Antes:
#
/dev/sda1 / ext4 errors=remount-ro,discard 0 1
/dev/sda2 swap swap defaults 0 0
/dev/sda3 /var/lib/vz ext4 defaults,discard 1 2
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
Después:
#
/dev/sda1 / ext4 errors=remount-ro,noatime 0 1
/dev/sda2 swap swap defaults 0 0
/dev/vg1/lv1 /var/lib/vz ext4 defaults,noatime 0 2
/dev/sdb1 /backups ext4 defaults,noatime 0 3

proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
En mi caso, mi servidor se llamará ssdpri.midominio.com
Tengo los DNS de midominio.com en otro servidor.
Allí, creo el host ssdpri en la zona midominio.com, asignándole la ip_servidor_ssd
Reinicio mis DNS de ese otro servidor.
Ya debo poder hacer ping a ssdpri.midominio.com y me responderá desde la ip_servidor_ssd
Aprovecho para crear la inversa en el Manager de OVH: Servicios -> Inversa IPv4
Corregimos los ficheros /etc/hostname y /etc/hosts para que muestren el nombre correcto y completo del servidor.
En /etc/hostname sólo debe quedar:
ssdpri.midominio.com
Y en /etc/hosts sustituiremos la línea que dice:
ip_servidor_ssd nsxxxxxx.ovh.net nsxxxxxx
Por:
ip_servidor_ssd ssdpri.midominio.com ssdpri
Creamos, a través del Manager de OVH, una IP FailOver para, más tarde, emplearla para la VM.
A esa IP la llamaremos ip_failover_vm

Ahora que ya tenemos todo listo, arrancamos de nuevo vz
Código:
/etc/init.d/vz start
NFS

Ahora vamos con el tema de exportar el directorio /backups (que está en el disco B) para que pueda ser visible desde las VMs.
Instalamos el servidor de NFS
Código:
apt-get install nfs-common (ya estaba)
 apt-get install nfs-kernel-server
Editamos /etc/exports para exportar el directorio /backups que sea visible por NFS desde la ip_failover_vm
Añadimos una línea
/backups ip_failover_vm(rw,sync,no_subtree_check)
En teoría, sería bueno permitir el acceso a la IP de la VM en /etc/hosts.allow
Pero, por ahora no lo haremos.

Reiniciamos la máquina para ver si todo va bien.
Código:
reboot
VM (CT)

Accedemos por web al Proxmox
http://ssdpri.midominio.com

Antes de crear una VM tendremos que crear un template.
Para ello, pulsamos en ssdpri -> local(ssdpri) -> carpeta Content
https://lh6.googleusercontent.com/-X...2/proxmox1.png
Pulsamos en Templates
https://lh3.googleusercontent.com/-z...6/proxmox2.png
Vemos que no hay un template de CentOS 6 para poderse bajar
¡¡¡ Vaya, mala pata !!! Tendremos que añadirlo
Si miramos en OpenVZ, vemos que allí si hay templates de CentOS 6: http://download.openvz.org/template/precreated
Queremos instalar el que aparece como centos-6-x86_64.tar.gz
Editamos /var/lib/pve-manager/apl-info/download.proxmox.com
Añadimos lo que está en negrita:
Código:
...
 Package: centos-5-standard
 Version: 5.6-1
 Type: openvz
 OS: centos-5
 Section: system
 Location: http://download.proxmox.com/appliances/system/centos-5-standard_5.6-1_i386.tar.gz
 Infopage: http://pve.proxmox.com/wiki/CentOS_5_Standard
 md5sum: 47477bd6bf5fc172ee9b767358aef246
 Description: CentOS 5 (standard)
   A small CentOS system.
 
 Package: centos-6-standard
 Version: 6.2-1
 Type: openvz
 OS: centos-6
 Section: system
 Location: http://download.openvz.org/template/precreated/centos-6-x86_64.tar.gz
 Infopage: http://pve.proxmox.com/wiki/CentOS_6_Standard
 md5sum: 47477bd6bf5fc172ee9b767358aef246
 Description: CentOS 6 de 64 bits
   A small CentOS system.
 
 Package: fedora-14-standard
 Version: 14-1
 Type: openvz
 OS: fedora-14
 Section: system
 Location: http://download.proxmox.com/appliances/system/fedora-14-standard_14-1$
 Infopage: http://pve.proxmox.com/wiki/Fedora_14_Standard
 md5sum: 8f863b1645878ecbad660e7fc169160b
 Description: Fedora 14 (standard)
   A small Fedora system.
 ...
Guardamos y comprobamos que ahora sí vemos desde el interface web de Proxmox el nuevo template de CentOS 6 de 64 bits
https://lh4.googleusercontent.com/-w...2/proxmox3.png
Así que lo seleccionamos y le damos Download.
Si te fijas, verás que en md5sum de ese template hemos puesto el mismo que el de centos-5-standard (47477bd6bf5fc172ee9b767358aef246) porque no sabemos el suyo.
Así que nos fallará al final con mensaje:
TASK ERROR: wrong checksum: a6c77ac2bee4a9faf8bff785d67c994f != 47477bd6bf5fc172ee9b767358aef246
Pero gracias a este mensaje, ya sabemos cual es el md5 correcto (a6c77ac2bee4a9faf8bff785d67c994f)
Editamos de nuevo /var/lib/pve-manager/apl-info/download.proxmox.com y ponemos ese valor de md5.
Repetimos la descarga y vemos que ahora ya ha ido bien:
download finished TASK OK
Ahora ¡¡¡por fín!!! vamos a poder crear la VM OpenVZ con CentOS 6 de 64 bits
(Trago de bebida para relajarnos)
Mucho trabajo ¿verdad?. Pero es lo que tiene esto de empezar. Después todo será más sencillo.

Recordemos (conviene leer las Wikis de Proxmox) que Proxmox puede manejar:
- VMs (máquinas virtuales) a través de KVM
- CT (contenedores) a través de OpenVZ
Aunque nosotros siempre las llamamos VMs, para Proxmox, lo que maneja, mediante OpenVZ, no se llaman, realmente, VM sino CT.
(No vamos a discutir ahora por qué hemos elegido OpenVZ en lugar de KVM ... esa es una larga historia y motivo para discusiones muy muy largas)
Así que lo repetimos, para Proxmox lo que estamos creando y manejaremos se llaman CT (contenedores), no VM

Así que ahora, en el interface web de Proxmox, le damos al botón "Create CT" y vamos rellenando los datos:
https://lh4.googleusercontent.com/-d...3/proxmox4.png
Ya podemos escoger el template que tanto trabajo nos dió:
https://lh3.googleusercontent.com/-i...0/proxmox5.png
Escojo en el número de CPUs 8, porque es el valor que detecta nuestro sistema para el microprocesador que lleva (4 núcleos, 8 threads)
https://lh3.googleusercontent.com/--...2/proxmox6.png
Y así hasta el final.
Importante en la carpeta Options del CT marcamos "Start at boot" y pulsamos Edit.
Ahí podemos marcar que la VM (o CT según Proxmox) no arranque en el inicio del servidor).
https://lh4.googleusercontent.com/-d...7/proxmox7.png
Después de darle OK, ya podemos dar al botón "Start"
Esto también podríamos hacerlo como comando desde SSH:
Código:
vzctl set 100 --onboot yes --save
Los cambios se reflejan en /etc/pve/openvz/100.conf
El servidor CentOS de la VM (CT) ya debe responder a ping.

Ahora entramos en la VM (vmpri.midominio.com) por SSH
Código:
ssh root@ip_failover_vm
Actualizamos el sistema operativo:
Código:
yum update
 yum upgrade
Instalamos el editor nano
Código:
yum install nano
Ahora podemos modificar el puerto de SSH (medida de seguridad básica inicial)
Código:
nano /etc/ssh/sshd_config
Descomentaremos la línea #Port 22 (le quitamos el #) y sustituimos 22 por el puerto que queramos utilizar, grabamos y salimos
Después reiniciamos el servicio SSH
Código:
/etc/init.d/sshd restart
Y salimos del SSH de la VM

MÁS NFS

Ahora vamos con el tema de que desde la VM (CT) se vea el directorio /backups del servidor anfitrión (ssdpri.midominio.com)
Accedemos por SSH al servidor SSD (ssdpri.midominio.com)
¡¡¡ Ojo al SSH del servidor, no al de la VM !!!
Editamos /etc/vz/vz.conf
Comentamos, con #, la línea que comienza por IPTABLES="ipt_REJECT...
Añadimos la línea:
Código:
IPTABLES="ipt_REJECT ipt_recent ipt_owner ipt_REDIRECT ipt_tos ipt_TOS ipt_LOG ip_conntrack ipt_limit ipt_multiport iptable_filter iptable_mangle ipt_TCPMSS ipt_tcpmss ipt_ttl ipt_length ipt_state iptable_nat ip_nat_ftp"
Grabamos y salimos
Paramos la VM (CT). Esta vez lo hacemos como comando (ahora que ya nos manejamos un poco)
Código:
vzctl stop 100
Ahora habilitamos la opción de NFS en el contenedor
Código:
vzctl set 100 --features nfs:on --save
Arrancamos de nuevo la VM(CT) (ya le vamos cogiendo el gusto a hacerlo desde la línea de comandos):
Código:
vzctl start 100
Salimos del SSH del servidor físico.

Ahora accederemos por SSH al contenedor vmpri.dominio.com (no al del servidor físico)
Código:
ssh -p xxxx vmpri.dominio.com
Intalamos el cliente de NFS:
Código:
yum install nfs-utils
Hacemos que los servicios necesarios para trabajar con NFS se arranquen al arrancar la VM:
Código:
chkconfig --level 345 netfs on
Creamos el directorio donde veremos montado el directorio /backups del servidor SSD (disco B completo a nuestra disposición). Lo llamaremos /backups_ssdpri
Código:
mkdir /backups_ssdpri
Editamos /etc/fstab para que se monte automáticamente el directorio /backups de ssdpri.midominio.com en el directorio /backups_ssdpri de nuestra VM
Y añadiremos en /etc/fstab la línea puesta en negrita
none /dev/pts devpts rw,gid=5,mode=620 0 0
none /dev/shm tmpfs defaults 0 0
ip_servidor_ssd:/backups /backups_ssdpri nfs defaults 0 0
Ahora reiniciamos nuestra VM (CT) desde el interfaz web de Proxmox o por comando desde el SSH del servidor SSD.
Y ya, en nuestra VM podemos acceder al directorio /backups_ssdpri donde tendremos a nuestra disposición un espacio de 300 GB que es el disco B completo del servidor SSD.
Lo mejor es probarlo y meter, por ejemplo, desde el servidor SSD un fichero en /backups y verlo desde la VM en su directorio /backups_ssdpri

¡¡¡ Enhorabuena !!! ¡¡¡ Conseguido !!!
Ya podemos ponernos una cervecita, una copa de cava o un gin-tonic a nuestro gusto.
Ya sólo nos quedará instalar lo que queramos en nuestra VM.
Yo instalo cPanel siguiendo paso a paso las instrucciones de http://docs.cpanel.net/twiki/bin/vie...tallationGuide
Pero eso es tema de otro tutorial.
Y, por supuesto, instalo CSF, mc, webmin, htop, ....

Saludos y que lo disfrutéis

PD: Bibliografía:
LVM: http://www.vilecha.com/Hellguest/lvm2_creacion.asp
NFS: http://www.linuxhomenetworking.com/w...ccess_with_NFS
NFS en servidores con discos SSD: http://www.jmginer.eu/hosting/como-d...enamiento.html

Más PD:
Acabo de darme cuenta de que para poder escribir, desde la VM en el disco /backups_ssdpri (que es la partición /backups del disco B del servidor anfitrión, montada por NFS) hay que cambiar los permisos del directorio /backups del servidor anfitrión (ssdpri.midominio.com) .
Basta con ejecutar en el servidor anfitrión el comando
Código:
chmod 777 /backups
Nueva PD:
Se puede dar el caso de que aparezca una línea con el mensaje:
Partition 2 does not start on physical sector boundary.

Por ejemplo:
Device Boot Start End Blocks Id System
/dev/sda1 * 4096 20973568 10484736+ 83 Linux
/dev/sda2 20973569 25165824 2096128 82 Linux swap / Solaris
Partition 2 does not start on physical sector boundary.


Eso puede ocurrir en los discos modernos por una falta de alineación.
Repercute "sólo" en que las lecturas y estrituras en ese sector son más lentas.

Si eres, como yo, un perfeccionista, puedes corregir el problema de varias formas.
Te cuento lo que he hecho yo.
Ojo: Mi partición / la creé de 10240 MB y la swap de 2048 MB

swapoff -a (desmonto la swap)
fdisk /dev/sda
u (pongo las unidades en sectores en lugar de cilindros)
p (veo cómo están)

Device Boot Start End Blocks Id System
/dev/sda1 * 4096 20973568 10484736+ 83 Linux
/dev/sda2 20973569 25165824 2096128 82 Linux swap / Solaris
Partition 2 does not start on physical sector boundary.


d (borrar)
2 (partición 2)
n (crear nueva partición)
p (de tipo primaria)
2 (partición 2)

First sector (63-1953525167, default 64):
Me propone como primer sector el 64 porque se da cuenta de que hay espacio por delante de la partición 1
20973568 (Le digo que nanai, que quiero que empiece en el mismo sector que acaba la partición 1 para ver qué me propone)

Como el fdisk es más listo que un perro verde, me contesta:
Sector 20973568 is already allocated
First sector (20973569-1953525167, default 20973576):

Le doy Intro para que me ponga como primer sector ese que me ofrece, el 20973576)

Using default value 20973576
Last sector, +sectors or +size{K,M,G} (20973576-1953525167, default 1953525167):

Ahora me pregunta por el último.
Para eso tengo que usar calculadora.
Como es un disco de 1 TB (1000 GB) con 1953525167 sectores, por la cuenta de la vieja (simple división) saco que 2 GB (que es lo que quiero para swap) son 3907050 sectores.
Así que pongo:
+3907050
t (para cambiar el tipo de partición)
2 (partición 2)
82 (tipo swap)
w (para grabar y salir)
partprobe (para que tome la nueva tabla de particiones)
fdisk -l para ver cómo ha quedado
¡¡¡ Bien, lo hemos conseguido !!!
mkswap /dev/sda2 (formateo la swap)
swapon -a (vuelvo a montar la swap)
Os dejo a vosotros el tema de añadir la partición 3, de tipo LVM, por el mismo sistema.