1 Paso a paso como : - Creación de Storage Slide (2) - Formateo de Storage dentro del S.O. Slide...

Post on 12-Mar-2015

2 views 1 download

Transcript of 1 Paso a paso como : - Creación de Storage Slide (2) - Formateo de Storage dentro del S.O. Slide...

1

Paso a paso como : - Creación de Storage Slide (2) - Formateo de Storage dentro del S.O. Slide (28) - Verificación de nuestra red Slide (29) - Instalando ClusterWare Slide (37) - Instalando motor Oracle Slide (73) - Creación de ASM en RAC Slide (89) - Creación de BD en RAC Slide (103)

Documento preparado por Hector Gabriel Ulloa Ligarius

Para http://www.oracleyyo.com

Procedimiento de Instalación RAC 10gr2

en Linux 3.0

Pantalla de inicio de la máquina virtual nodo1

3

Se levanta el otro nodo, con las mismas características físicas

4

Verificamos los niveles de RAM que cada máquina virtual tendráY seleccionamos ADD para añadir Storage compartido a nuestro RAC

5

Procedemos a añadir un disco para ello en la pantalla anterior presionamos ADD

6

Seleccionamos disco duroEn esta operación lo que vamos a crear será el Storage necesario para el RAC

7

Creamos un disco nuevo

8

De tipo SCSI, se recomienda por sobre el IDE

9

Le damos una cantidad X de GB , y ojalá lo creemos con particiones de 2GB, estoes para un mejor manejo por parte del Sistema Operativo

10

Ubicamos la carpeta donde dejaremos nuestro Storage compartido

11

Le damos un nombre acorde, para el caso nuestro Storage_Compartido

12

Una vez indicado el nombre del Storage , presionamos Finalizar, con lo cual se comienza a generar el disco

13

Aparece la pantalla de creación del Storage

14

Y el disco aparece en nuestra máquina virtual

15

Seleccionamos propiedades del disco, y dentro de esas opciones , le indicamos que Debe ser independiente, con esto provocamos que el disco pueda ser escrito desde 2 máquinas virtuales distintas

16

Le indicamos que es independiente y persistente, esta última opción indica que loscambios se mantendrán a pesar de reiniciar la máquina

17

La configuración del nodo1 debiese quedar como sigue

18

La configuración del nodo2 debiese quedar como sigue

19

Verificamos los niveles de RAM que cada máquina virtual tendráY seleccionamos ADD para añadir Storage compartido a nuestro RAC, pero un storageya generado

20

Bienvenidos al asistente

21

Le añadimos el storage correspondiente

22

Le indicamos que será uno existente

23

Buscamos el disco inicial del Storage generado desde el nodo1

24

Validamos la ruta

25

Y así aparece el Storage

26

Le indicamos desde el nodo 2 que será independiente y persistente, para que siemprefuncione compartido y que sus características prevalezcan aunque se resetee el nodo

27

Así debiese visualizarse el Storage desde el nodo2

28

Acá esta el formateo del Storage

Sólo haz CLICK en el comentario

Hector Gabriel Ulloa Ligarius
[root@raca root]# fdisk -lDisk /dev/sda: 10.7 GB, 10737418240 bytes255 heads, 63 sectors/track, 1305 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sda1 * 1 1045 8393931 83 Linux/dev/sda2 1046 1305 2088450 82 Linux swapDisk /dev/sdb: 42.9 GB, 42949672960 bytes255 heads, 63 sectors/track, 5221 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDisk /dev/sdb doesn't contain a valid partition table[root@raca root]# fdisk /dev/sdbDevice contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabelBuilding a new DOS disklabel. Changes will remain in memory only,until you decide to write them. After that, of course, the previouscontent won't be recoverable.The number of cylinders for this disk is set to 5221.There is nothing wrong with that, but this is larger than 1024,and could in certain setups cause problems with:1) software that runs at boot time (e.g., old versions of LILO)2) booting and partitioning software from other OSs (e.g., DOS FDISK, OS/2 FDISK)Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)Command (m for help): pDisk /dev/sdb: 42.9 GB, 42949672960 bytes255 heads, 63 sectors/track, 5221 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id SystemCommand (m for help):[root@raca root]#[root@raca root]# fdisk /dev/sdbDevice contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabelBuilding a new DOS disklabel. Changes will remain in memory only,until you decide to write them. After that, of course, the previouscontent won't be recoverable.The number of cylinders for this disk is set to 5221.There is nothing wrong with that, but this is larger than 1024,and could in certain setups cause problems with:1) software that runs at boot time (e.g., old versions of LILO)2) booting and partitioning software from other OSs (e.g., DOS FDISK, OS/2 FDISK)Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)Command (m for help): nCommand action e extended p primary partition (1-4)pPartition number (1-4): 1First cylinder (1-5221, default 1):Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-5221, default 5221):Using default value 5221Command (m for help): nCommand action e extended p primary partition (1-4)[root@raca root]#[root@raca root]# fdisk /dev/sdbDevice contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabelBuilding a new DOS disklabel. Changes will remain in memory only,until you decide to write them. After that, of course, the previouscontent won't be recoverable.The number of cylinders for this disk is set to 5221.There is nothing wrong with that, but this is larger than 1024,and could in certain setups cause problems with:1) software that runs at boot time (e.g., old versions of LILO)2) booting and partitioning software from other OSs (e.g., DOS FDISK, OS/2 FDISK)Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)Command (m for help): nCommand action e extended p primary partition (1-4)ePartition number (1-4): 1First cylinder (1-5221, default 1):Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-5221, default 5221):Using default value 5221Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (1-5221, default 1):Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-5221, default 5221): 31Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (32-5221, default 32):Using default value 32Last cylinder or +size or +sizeM or +sizeK (32-5221, default 5221): 93Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (94-5221, default 94):Using default value 94Last cylinder or +size or +sizeM or +sizeK (94-5221, default 5221): 124Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (125-5221, default 125):Using default value 125Last cylinder or +size or +sizeM or +sizeK (125-5221, default 5221): 186Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (187-5221, default 187):Using default value 187Last cylinder or +size or +sizeM or +sizeK (187-5221, default 5221): 248Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (249-5221, default 249):Using default value 249Last cylinder or +size or +sizeM or +sizeK (249-5221, default 5221): 491Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (492-5221, default 492):Using default value 492Last cylinder or +size or +sizeM or +sizeK (492-5221, default 5221): 734Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (735-5221, default 735):Using default value 735Last cylinder or +size or +sizeM or +sizeK (735-5221, default 5221): 977Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (978-5221, default 978):Using default value 978Last cylinder or +size or +sizeM or +sizeK (978-5221, default 5221): 1220Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (1221-5221, default 1221):Using default value 1221Last cylinder or +size or +sizeM or +sizeK (1221-5221, default 5221): 1463Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (1464-5221, default 1464):Using default value 1464Last cylinder or +size or +sizeM or +sizeK (1464-5221, default 5221): 1706Command (m for help): nCommand action l logical (5 or over) p primary partition (1-4)lFirst cylinder (1707-5221, default 1707):Using default value 1707Last cylinder or +size or +sizeM or +sizeK (1707-5221, default 5221):Using default value 5221Command (m for help): wThe partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.[root@raca root]# fdisk -lDisk /dev/sda: 10.7 GB, 10737418240 bytes255 heads, 63 sectors/track, 1305 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sda1 * 1 1045 8393931 83 Linux/dev/sda2 1046 1305 2088450 82 Linux swapDisk /dev/sdb: 42.9 GB, 42949672960 bytes255 heads, 63 sectors/track, 5221 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System/dev/sdb1 1 5221 41937651 5 Extended/dev/sdb5 1 31 248944+ 83 Linux/dev/sdb6 32 93 497983+ 83 Linux/dev/sdb7 94 124 248976 83 Linux/dev/sdb8 125 186 497983+ 83 Linux/dev/sdb9 187 248 497983+ 83 Linux/dev/sdb10 249 491 1951866 83 Linux/dev/sdb11 492 734 1951866 83 Linux/dev/sdb12 735 977 1951866 83 Linux/dev/sdb13 978 1220 1951866 83 Linux/dev/sdb14 1221 1463 1951866 83 Linux/dev/sdb15 1464 1706 1951866 83 Linux/dev/sdb16 1707 5221 28234206 83 Linux[root@raca root]#

29

Verificamos nuestras interfaces de red, siempre 3 por nodoLa interfase virtual debe estar en el segmento público

30

Para verificar que realmente sean esas nuestras Ips y que el hostname este correcto , buscamos NETWORK en el menú de linux

31

Se verifican las tarjetas de red, junto con sus IPs

32

Se modifica el hostname si corresponde

33

Se verifican las IPs

34

Esto se debe hacer para las 2 interfases, una privada y otra pública

35

Se reinician los servicios de red en

/etc/init.d/network restart

36

Y se validan las tarjetas , las Ips , el nombre de las interfasespara cada uno de los nodos

37

Una vez que este todo configurado con respecto a la interfacesde red , procedemos a verificar los instaladores.

Acá se ven los instaladores de la base de datos, el ASM , el clusterware y el parche de base de datos

38

Típica pantalla de bienvenida

39

En este punto debemos generar los certificados para la conexiónentre los nodos, para ello , podemos ver el siguiente link

http://www.oracleyyo.com/index.php/2009/10/07/creacion-de-certificados-para-un-rac

40

Se especifica la ruta del inventario

41

Entregamos el Oracle Home del CRS (Clusterware)La recomendación es que este lo mas cercano a la raíz

42

Se lleva a cabo el prechequeo, típico…

43

Y acá nos enseña los nodos que van a conformar el rac, en dondenosotros debemos agregar el nodo con el comando add

44

Cuando presionamos el botón Add , nos enseña una pantalla en donde podemos ingresar el nodo que irá en el RAC, acá ingresamos el alias de las IP pública, virtual y privada

45

Una vez ingresado el nodo al RAC, aparecerá de la siguiente forma

46

Después muestra las interfaces de red, pero acá un gran detalle, muestra ambos segmentos como privados, ya que para Oracle las IPs 172* y 10* son privadas, lo que hay que hacer es cambiar una de ellas a PUBLIC

47

Hacemos Edit en la interface eth0 donde corre nuestra IP pública y le indicamos a Oracle que esa será nuestra interfaz pública.

48

Nuestra eth0 aparece como pública una vez que hemos realizado el cambio

49

Acá le indicamos el dispositivo Raw a utilizar para nuestro archivo OCR, sólo ocupamos1 , sin multiplexar

50

Acá le indicamos el dispositivo Raw a utilizar para nuestro archivo Voting Disk, sólo ocupamos 1 , sin multiplexar

51

Pantalla de resumen de instalación, acá hay que seleccionar la + donde aparece Cluster Nodes y Remotes Nodes, sólo para validar los componentes

52

Comienza la instalación

53

Llega a un punto la instalación donde comienza con las operaciones remota, Y acá en este punto copia los binarios

54

Cuando hay diferencias de fecha , aparece este grosero mensaje, la instalación puede seguir pero una vez que se sincronicen las fechas

55

Sincronización de las fechas con el comando date –s (se debe hacer con root)

56

Cuando se muestra esta pantalla , lo que se debe hacer en forma ordenada es ejecutarlos scripts de a uno en cada nodo, sin saltarse ninguno y esperando que el anterior finalice

57

Se ejecutan los archivos anteriores con root

58

Y se sigue con el siguiente archivo en orden, el root.sh agrega y formatea el voting disky el OCR

59

Después el root.sh en el segundo nodo y acá un pequeño inconveniente con la VIPCA

60

Cuando se ejecuta root.sh en el segundo nodo, en forma silenciosa se ejecuta el utilitarioVipca, lo que hace es que se ejecuta de modo background un asistente para generarlos componente (aplications) del Clusterware.

Esta vipca al no ser levantado con el root.sh , se debe ejcutar de forma manual con el Usuario root.sh desde el nodo2 y así levantar el asistente

61

Verificamos que estemos con root

Vamos al home del clusterware en el nodo2 y ejecutamos vipca

62

Aparece la pantalla de bienvenida del Vipca

63

Nos muestra las interfaces disponibles , de las cuales se debe seleccionar la ethoque es nuestra interface pública

64

Ingresamos el alias de la vip, al ingresar y presionar TAB nos rellena todas las celdas deforma automática

65

Después nos proporciona una pantalla de resumen con respecto a las ips que utilizarán

66

Comienza la generación de los componentes con los cuales trabajará el Clusterware

67

Y avanzando en la instalación llegamos a un 100%Donde en este punto se generan todos los servicios del Clusterware

68

Como resultado de la instalación nos muestra las VIP generadas

69

Para finalizar , debemos ejecutar las shell que aparecen en el cuadro , de formaextricta, la número 1 en el nodo1 y nodo2 y la número 2 en el nodo1 y nodo2

70

Después de haber ejecutado las shell , nos presenta una pantalla de asistentesen donde se deben ejecutar todos de forma obligatoria

71

Todos felices cuando termina nuestra instalación de forma exitosa

72

Verificamos con el comando crs_stat –t como quedan nuestros componentes en el clusterware

73

Después de lo anterior, procedemos a descomprimir el instalador para el motor Oracle

74

1.-Se debe bajar el software desde la siguiente rutahttp://www.oracle.com/technology/products/database/clustering/cvu/cvu_download_homepage.htmlObs : El ideal es que sea la versión 11g

2.- Se descomprime el archivo con unzip

3.- Se ejecuta con un./cluvfy stage -post crsinst -n raca,racb –verbose –r 10Gr2

75

Se ejecuta el comando del cluvfy

76

Y una vez validados todos los prerequisitos antes de la instalación , ejecutamos el instalador para crear nuestro motor Oracle

77

La típica pantalla de bienvenida

78

Seleccionamos Enterprise Edition

79

Y le indicamos el lugar donde albergaremos el motor Oracle

80

Como ya está el Clusterware instalado y lo servicios corriendo, el instalador nospregunta si instalaremos en cluster el motor o de forma standalone, claramente elegimos cluster

81

Se chequean los prerequisitos, deben estar todos correctos, sino, no se debiese avanzar en la instalación

82

Sólo vamos a generar la instalación de los binarios, no vamos a crear la base de datos

83

Un resumen de lo que instalaremos

84

Y comienza nuestra instalación

85

En las operaciones remotas, lo que hace el instalador es copiar los binarios mediante scp a las otras máquinas que componen nuestro RAC

86

Se nos pide ejecutar la shell root.sh en el mismo orden en que aparece en la pantalla, o sea, nodo1 y nodo2

87

La salida de la ejecución en el nodo1 y algo similar se verá en el nodo2

88

Al final de la instalación, todo es abrazos…

89

Ejecutamos nuevamente el instalador del motor, pero está vez para generar el motor del ASM

90

Pantalla de bienvenida

91

Veificamos el tipo de instalación , claramente elegimos Enterprise Edition

92

Y le indicamos donde estará nuestro home para el ASM

93

Nos pregunta si es en modo cluster o en modo standalone, si elegimos cluster debemos seleccionar los nodos que participarán de esta instalación

94

Se chequean los prerequisitos, los cuales deben ser cumplidos a cabalidad

95

Y elegimos configurar una instancia ASM, en este punto le indicamos la password con la cual nos vamos a conectar a la instancia ASM

96

Una vez levantada la instancia ASM , nos preguntará por el diskgroup a generar, nos muestra todos los discos que son candidatos a formar parte del diskgroup , los seleccionamos y le indicamos un nombre de Diskgroup

97

La pantalla de resumen, en donde siempre se debe seleccionar “Cluster Nodes” y “Remote Nodes” , con el fin de validar los nodos participantes y el tamaño para la instalación que posee el nodo remoto

98

Comienza nuestra instalación

99

Y en operaciones remotas, se lleva a cabo la copia de los binarios a los otros nodos

100

Se ejecuta la shell root.sh en el nodo1 y nodo2

101

Y de nuevo abrazos por el fin de la instalación

102

Volvemos a ejecutar el comando crs_stat –t desde cualquiera de los nodos y nos debiese mostrar los siguientes recursos en cluster

103

Lo único que nos queda es crear la instancia, para ello ejecutamos el dbca desde cualquiera de los nodos y elegimos base de datos en cluster

104

Elegimos crear base de datos

105

Y seleccionamos los nodos donde queremos que se creen instancias para nuestra base de datos en RAC

106

Elegimos cualquier template, total después vamos a modificar los parámetros de incialización de estas instancias

107

Le damos el nombre a nuestra base de datos, recordar que se le agrega un correlativo por cada nodo a este nombrey con ellos se crea el nombre de la instancia

108

Elegimos generar la consola para administrar nuestra base de datos

109

Password de nuestros esquemas

110

Y acá le indicamos que el almacenamiento será mediante ASM

111

Seleccionamos el diskgroup que ya habíamos generado con anterioridad

112

Seleccionamos OMF y el diskgroup generado

113

Y procedemos a generar nuestro nuevo diskgroup para contener la FRA

114

El instalador genera el diskgroup

115

Y una vez generado , nos muestra los diskgroups disponibles con todas sus características

116

Al momento de especificar la FRA de nuestra base de datos, debemos seleccionar el diskgroup que acabamos de generar con el nombre de FRA

117

Seleccionamos el diskgroup

118

Y nos muestra la información por pantalla

119

La verdad no es necesario cargar los esquemas de ejemplo , pero si quieren lo pueden hacer

120

Aparece la pantalla de servicios, en este punto no vamos a generar nada, sólo vamos a dar next

121

Las especificaciones típicas de memoria

122

Las especificaciones de Storage, acá no hacemos nada..

123

Acá seleccionamos crear la base de datos y que genere los scripts de la base

124

Nos muestra la pantalla de definiciones de nuestra base

125

Lo primero que se ejecuta es la creación de los scripts y después viene la creación de las instancias

126

Comienza la copia de los datafiles de nuestra base de datos

127

Y una vez finalizado, nos muestra la pantalla final de creación de nuestra base de datos

128

En este punto se comienzan a generar nuestras instancias en RAC

Y con esto se llega al fin de nuestra instalación