Procedimiento de
Instalación RAC 10gr2
en Linux 3.0
Paso a paso como :
- Creación de Storage
- Formateo de Storage dentro del S.O.
- Verificación de nuestra red
- Instalando ClusterWare
- Instalando motor Oracle
- Creación de ASM en RAC
- Creación de BD en RAC
Documento preparado por
Slide (2)
Slide (28)
Slide (29)
Slide (37)
Slide (73)
Slide (89)
Slide (103)
Hector Gabriel Ulloa Ligarius
1
Para
http://www.oracleyyo.com
Pantalla de inicio de la máquina virtual nodo1
Se levanta el otro nodo, con las mismas características físicas
3
Verificamos los niveles de RAM que cada máquina virtual tendrá
Y seleccionamos ADD para añadir Storage compartido a nuestro RAC
4
Procedemos a añadir un disco para ello en la pantalla anterior presionamos ADD
5
Seleccionamos disco duro
En esta operación lo que vamos a crear será el Storage necesario para el RAC
6
Creamos un disco nuevo
7
De tipo SCSI, se recomienda por sobre el IDE
8
Le damos una cantidad X de GB , y ojalá lo creemos con particiones de 2GB, esto
es para un mejor manejo por parte del Sistema Operativo
9
Ubicamos la carpeta donde dejaremos nuestro Storage compartido
10
Le damos un nombre acorde, para el caso nuestro Storage_Compartido
11
Una vez indicado el nombre del Storage , presionamos Finalizar, con lo cual se
comienza a generar el disco
12
Aparece la pantalla de creación del Storage
13
Y el disco aparece en nuestra máquina virtual
14
Seleccionamos propiedades del disco, y dentro de esas opciones , le indicamos que
Debe ser independiente, con esto provocamos que el disco pueda ser escrito desde
2 máquinas virtuales distintas
15
Le indicamos que es independiente y persistente, esta última opción indica que los
cambios se mantendrán a pesar de reiniciar la máquina
16
La configuración del nodo1 debiese quedar como sigue
17
La configuración del nodo2 debiese quedar como sigue
18
Verificamos los niveles de RAM que cada máquina virtual tendrá
Y seleccionamos ADD para añadir Storage compartido a nuestro RAC, pero un storage
ya generado
19
Bienvenidos al asistente
20
Le añadimos el storage correspondiente
21
Le indicamos que será uno existente
22
Buscamos el disco inicial del Storage generado desde el nodo1
23
Validamos la ruta
24
Y así aparece el Storage
25
Le indicamos desde el nodo 2 que será independiente y persistente, para que siempre
funcione compartido y que sus características prevalezcan aunque se
resetee el nodo
26
Así debiese visualizarse el Storage desde el nodo2
27
Acá esta el formateo del Storage
Sólo haz CLICK en el comentario
28
Verificamos nuestras interfaces de red, siempre 3 por nodo
La interfase virtual debe estar en el segmento público
29
Para verificar que realmente sean esas
nuestras Ips y que el hostname este correcto ,
buscamos NETWORK en el menú de linux
30
Se verifican las tarjetas de red, junto con sus IPs
31
Se modifica el hostname si corresponde
32
Se verifican las IPs
33
Esto se debe hacer para las 2 interfases, una privada y otra pública
34
Se reinician los servicios de red en
/etc/init.d/network restart
35
Y se validan las tarjetas , las Ips , el nombre de las interfases
para cada uno de los nodos
36
Una vez que este todo configurado con respecto a la interfaces
de red , procedemos a verificar los instaladores.
Acá se ven los instaladores de la base de datos, el ASM , el clusterware y
el parche de base de datos
37
Típica pantalla de bienvenida
38
En este punto debemos generar los certificados para la conexión
entre los nodos, para ello , podemos ver el siguiente link
http://www.oracleyyo.com/index.php/2009/10/07/creacion-de-certificados-para-un-rac
39
Se especifica la ruta del inventario
40
Entregamos el Oracle Home del CRS (Clusterware)
La recomendación es que este lo mas cercano a la raíz
41
Se lleva a cabo el prechequeo, típico…
42
Y acá nos enseña los nodos que van a conformar el rac, en donde
nosotros debemos agregar el nodo con el comando add
43
Cuando presionamos el botón Add , nos enseña una pantalla en donde podemos ingresar
el nodo que irá en el RAC, acá ingresamos el alias de las IP pública, virtual y privada
44
Una vez ingresado el nodo al RAC, aparecerá de la siguiente forma
45
Después muestra las interfaces de red, pero acá un gran detalle, muestra ambos
segmentos como privados, ya que para Oracle las IPs 172* y 10* son privadas, lo que
hay que hacer es cambiar una de ellas a PUBLIC
46
Hacemos Edit en la interface eth0 donde corre nuestra IP pública y le indicamos a
Oracle que esa será nuestra interfaz pública.
47
Nuestra eth0 aparece como pública una vez que hemos realizado el cambio
48
Acá le indicamos el dispositivo Raw a utilizar para nuestro archivo OCR, sólo ocupamos
1 , sin multiplexar
49
Acá le indicamos el dispositivo Raw a utilizar para nuestro archivo Voting Disk,
sólo ocupamos 1 , sin multiplexar
50
Pantalla de resumen de instalación, acá hay que seleccionar la + donde aparece
Cluster Nodes y Remotes Nodes, sólo para validar los componentes
51
Comienza la instalación
52
Llega a un punto la instalación donde comienza con las operaciones remota,
Y acá en este punto copia los binarios
53
Cuando hay diferencias de fecha , aparece este grosero mensaje, la instalación
puede seguir pero una vez que se sincronicen las fechas
54
Sincronización de las fechas con el comando date –s (se debe hacer con root)
55
Cuando se muestra esta pantalla , lo que se debe hacer en forma ordenada es ejecutar
los scripts de a uno en cada nodo, sin saltarse ninguno y esperando que el anterior
finalice
56
Se ejecutan los archivos anteriores con root
57
Y se sigue con el siguiente archivo en orden, el root.sh agrega y formatea el voting disk
y el OCR
58
Después el root.sh en el segundo nodo y acá un pequeño inconveniente con la VIPCA
59
Cuando se ejecuta root.sh en el segundo nodo, en forma silenciosa se ejecuta el utilitario
Vipca, lo que hace es que se ejecuta de modo background un asistente para generar
los componente (aplications) del Clusterware.
Esta vipca al no ser levantado con el root.sh , se debe ejcutar de forma manual con el
Usuario root.sh desde el nodo2 y así levantar el asistente
60
Verificamos que estemos con root
Vamos al home del clusterware en el nodo2 y ejecutamos vipca
61
Aparece la pantalla de bienvenida del Vipca
62
Nos muestra las interfaces disponibles , de las cuales se debe seleccionar la etho
que es nuestra interface pública
63
Ingresamos el alias de la vip, al ingresar y presionar TAB nos rellena todas las celdas de
forma automática
64
Después nos proporciona una pantalla de resumen con respecto a las ips que utilizarán
65
Comienza la generación de los componentes con los cuales trabajará el Clusterware
66
Y avanzando en la instalación llegamos a un 100%
Donde en este punto se generan todos los servicios del Clusterware
67
Como resultado de la instalación nos muestra las
VIP generadas
68
Para finalizar , debemos ejecutar las shell que aparecen en el cuadro , de forma
extricta, la número 1 en el nodo1 y nodo2 y la número 2 en el nodo1 y nodo2
69
Después de haber ejecutado las shell , nos presenta una pantalla de asistentes
en donde se deben ejecutar todos de forma obligatoria
70
Todos felices cuando termina nuestra instalación de forma exitosa
71
Verificamos con el comando crs_stat –t como quedan nuestros componentes en el
clusterware
72
Después de lo anterior, procedemos a descomprimir el instalador para el motor Oracle
73
1.-Se debe bajar el software desde la siguiente ruta
http://www.oracle.com/technology/products/database/clusterin
g/cvu/cvu_download_homepage.html
Obs : El ideal es que sea la versión 11g
2.- Se descomprime el archivo con unzip
3.- Se ejecuta con un
./cluvfy stage -post crsinst -n raca,racb –verbose –r 10Gr2
74
Se ejecuta el comando del cluvfy
75
Y una vez validados todos los prerequisitos antes de la instalación , ejecutamos
el instalador para crear nuestro motor Oracle
76
La típica pantalla de bienvenida
77
Seleccionamos Enterprise Edition
78
Y le indicamos el lugar donde albergaremos el motor Oracle
79
Como ya está el Clusterware instalado y lo servicios corriendo, el instalador nos
pregunta si instalaremos en cluster el motor o de forma standalone, claramente
elegimos cluster
80
Se chequean los prerequisitos, deben estar todos correctos, sino, no se debiese
avanzar en la instalación
81
Sólo vamos a generar la instalación de los binarios, no vamos a crear la base de
datos
82
Un resumen de lo que instalaremos
83
Y comienza nuestra instalación
84
En las operaciones remotas, lo que hace el instalador es copiar los binarios
mediante scp a las otras máquinas que componen nuestro RAC
85
Se nos pide ejecutar la shell root.sh en el mismo orden en que aparece en la
pantalla, o sea, nodo1 y nodo2
86
La salida de la ejecución en el nodo1 y algo similar se verá en el nodo2
87
Al final de la instalación, todo es abrazos…
88
Ejecutamos nuevamente el instalador del motor, pero está vez para generar el
motor del ASM
89
Pantalla de bienvenida
90
Veificamos el tipo de instalación , claramente elegimos Enterprise Edition
91
Y le indicamos donde estará nuestro home para el ASM
92
Nos pregunta si es en modo cluster o en modo standalone, si elegimos cluster
debemos seleccionar los nodos que participarán de esta instalación
93
Se chequean los prerequisitos, los cuales deben ser cumplidos a cabalidad
94
Y elegimos configurar una instancia ASM, en este punto le indicamos la
password con la cual nos vamos a conectar a la instancia ASM
95
Una vez levantada la instancia ASM , nos preguntará por el diskgroup a generar,
nos muestra todos los discos que son candidatos a formar parte del diskgroup ,
los seleccionamos y le indicamos un nombre de Diskgroup
96
La pantalla de resumen, en donde siempre se debe seleccionar “Cluster Nodes”
y “Remote Nodes” , con el fin de validar los nodos participantes y el tamaño para
la instalación que posee el nodo remoto
97
Comienza nuestra instalación
98
Y en operaciones remotas, se lleva a cabo la copia de los binarios a los otros
nodos
99
Se ejecuta la shell root.sh en el nodo1 y nodo2
100
Y de nuevo abrazos por el fin de la instalación
101
Volvemos a ejecutar el comando crs_stat –t desde cualquiera de los nodos y nos
debiese mostrar los siguientes recursos en cluster
102
Lo único que nos queda es crear la instancia, para ello ejecutamos el dbca desde
cualquiera de los nodos y elegimos base de datos en cluster
103
Elegimos crear base de datos
104
Y seleccionamos los nodos donde queremos que se creen instancias para
nuestra base de datos en RAC
105
Elegimos cualquier template, total después vamos a modificar los parámetros de
incialización de estas instancias
106
Le damos el nombre a nuestra base de datos, recordar que se le agrega un
correlativo por cada nodo a este nombrey con ellos se crea el nombre de la
instancia
107
Elegimos generar la consola para administrar nuestra base de datos
108
Password de nuestros esquemas
109
Y acá le indicamos que el almacenamiento será mediante ASM
110
Seleccionamos el diskgroup que ya habíamos generado con anterioridad
111
Seleccionamos OMF y el diskgroup generado
112
Y procedemos a generar nuestro nuevo diskgroup para contener la FRA
113
El instalador genera el diskgroup
114
Y una vez generado , nos muestra los diskgroups disponibles con todas sus
características
115
Al momento de especificar la FRA de nuestra base de datos, debemos
seleccionar el diskgroup que acabamos de generar con el nombre de FRA
116
Seleccionamos el diskgroup
117
Y nos muestra la información por pantalla
118
La verdad no es necesario cargar los esquemas de ejemplo , pero si quieren lo
pueden hacer
119
Aparece la pantalla de servicios, en este punto no vamos a generar nada, sólo
vamos a dar next
120
Las especificaciones típicas de memoria
121
Las especificaciones de Storage, acá no hacemos nada..
122
Acá seleccionamos crear la base de datos y que genere los scripts de la base
123
Nos muestra la pantalla de definiciones de nuestra base
124
Lo primero que se ejecuta es la creación de los scripts y después viene la
creación de las instancias
125
Comienza la copia de los datafiles de nuestra base de datos
126
Y una vez finalizado, nos muestra la pantalla final de creación de nuestra base
de datos
127
En este punto se comienzan a generar nuestras instancias en RAC
Y con esto se llega al fin de nuestra instalación
128
Descargar

Diapositiva 1