Howto Installation von Oracle RAC 19C auf ESXi Teil 3

In diesem Artikel installieren wir Oracle Grid Infrastructure 19c unter Linux. Vor der Oracle Grid-Installation benötigen Sie zunächst ein Betriebssystem. Sie können den folgenden Artikel lesen, um Oracle Linux zu installieren.

Howto Installation von Oracle RAC 19C auf ESXi Teil 1

Zuerst konfigurieren wir die Datenträger.

Da ich ein Test-Setup ausführe, verwende ich 5-Festplatten. Drei dieser Festplatten werden für +CRS verwendet, die anderen beiden für RACDB + FRA.

Ich prüfe meine Datenträger. In der Hypervisor-Umgebung, in der ich arbeite, beginnen meine Festplatten mit SD. Es kann nicht mit SD * in Ihrer Umgebung beginnen. Sie können es je nach Situation beheben.

SDB, SDC, SDD, SDE und SDF sind die Datenträger, die ich als freigegeben hinzugefügt habe. ASM wird hier arbeiten.

1

2

3

4

5

6

7

8

[root@rac101 ~]# ll /dev/sd*

brw-rw—-. 1 root disk 8,  0 Sep 13 13:04 /dev/sda

brw-rw—-. 1 root disk 8,  1 Sep 13 13:04 /dev/sda1

brw-rw—-. 1 root disk 8,  2 Sep 13 13:04 /dev/sda2

brw-rw—-. 1 root disk 8, 16 Sep 13 13:04 /dev/sdb

brw-rw—-. 1 root disk 8, 32 Sep 13 13:04 /dev/sdc

brw-rw—-. 1 root disk 8, 48 Sep 13 13:04 /dev/sdd

brw-rw—-. 1 root disk 8, 64 Sep 13 13:04 /dev/sde

brw-rw—-. 1 root disk 8, 64 Sep 13 13:04 /dev/sdf

Ich werde die Festplatten vorbereiten. Dann geht es mit Oracle ASM weiter.
Als nächstes müssen wir die Datenträger formatieren, die ursprünglich zu Knoten 1 hinzugefügt wurden, nur auf Knoten 1

Formatieren Sie die 5 Festplatten, die sdb, sdc, sdd, sde und sdf sein werden.

Geben Sie als Beispiel für den ersten Datenträger fdisk /dev/sdb ein.

Typ n für neue

Typ p für primäre

Typ 1 für partitionPress enter

Drücken Sie enter

Drücken Sie enter

Presse unter

Oracle75

Ich mache die folgende Operation auf RAC101. (Es sollten keine Maßnahmen für RAC102 ergriffen werden.

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

[root@rac101 ~]# fdisk /dev/sdb

 

Welcome to fdisk (util-linux 2.32.1).

Changes will remain in memory only, until you decide to write them.

Be careful before using the write command.

 

Device does not contain a recognized partition table.

Created a new DOS disklabel with disk identifier 0xf2177cca.

 

Command (m for help): n

Partition type

   p   primary (0 primary, 0 extended, 4 free)

   e   extended (container for logical partitions)

Select (default p): p

Partition number (1-4, default 1): 1

First sector (2048-20971519, default 2048):

Last sector, +sectors or +size{K,M,G,T,P} (2048-20971519, default 20971519):

 

Created a new partition 1 of type 'Linux' and of size 10 GiB.

 

Command (m for help): w

The partition table has been altered.

Calling ioctl() to re-read partition table.

Syncing disks.

Wir führen diese Operationen für unsere anderen Festplatten (sdc, sdd, sde, sdf)durch. Nachdem unsere Arbeiten abgeschlossen sind, wird es eine Ausgabe wie folgt geben.

1

2

3

4

5

6

7

8

9

10

11

12

[root@rac101 ~]# ll /dev/sd*

brw-rw—-. 1 root disk 8,  0 Sep 13 13:04 /dev/sda

brw-rw—-. 1 root disk 8,  1 Sep 13 13:04 /dev/sda1

brw-rw—-. 1 root disk 8,  2 Sep 13 13:04 /dev/sda2

brw-rw—-. 1 root disk 8, 16 Sep 13 13:07 /dev/sdb

brw-rw—-. 1 root disk 8, 17 Sep 13 13:07 /dev/sdb1

brw-rw—-. 1 root disk 8, 32 Sep 13 13:07 /dev/sdc

brw-rw—-. 1 root disk 8, 33 Sep 13 13:07 /dev/sdc1

brw-rw—-. 1 root disk 8, 48 Sep 13 13:07 /dev/sdd

brw-rw—-. 1 root disk 8, 49 Sep 13 13:07 /dev/sdd1

brw-rw—-. 1 root disk 8, 64 Sep 13 13:07 /dev/sde

brw-rw—-. 1 root disk 8, 65 Sep 13 13:07 /dev/sde1

Wir starten die RAC101- und RAC102-Server neu. Im nächsten Schritt bereiten wir unsere Festplatten für ASM vor.

Wir tun die folgenden Schritte für RAC101 und RAC102.

1

2

3

4

[root@rac101 ~]# oracleasm update-driver

Kernel:         5.4.17-2011.5.3.el8uek.x86_64 x86_64

Driver name:    oracleasm-5.4.17-2011.5.3.el8uek.x86_64

Driver for kernel 5.4.17-2011.5.3.el8uek.x86_64 does not exist

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

[root@rac101 ~]# oracleasm configure -I

Configuring the Oracle ASM library driver.

 

This will configure the on-boot properties of the Oracle ASM library

driver.  The following questions will determine whether the driver is

loaded on boot and what permissions it will have.  The current values

will be shown in brackets ('[]').  Hitting <ENTER> without typing an

answer will keep that current value.  Ctrl-C will abort.

 

Default user to own the driver interface []: grid

Default group to own the driver interface []: asmadmin

Start Oracle ASM library driver on boot (y/n) [n]: y

Scan for Oracle ASM disks on boot (y/n) [y]: y

 

The next two configuration options take substrings to match device names.

The substring "sd" (without the quotes), for example, matches "sda", "sdb",

etc.  You may enter more than one substring pattern, separated by spaces.

The special string "none" (again, without the quotes) will clear the value.

 

Device order to scan for ASM disks []:

Devices to exclude from scanning []:

Directories to scan []:

Use device logical block size for ASM (y/n) [n]: y

Writing Oracle ASM library driver configuration: done

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

[root@rac102 ~]# oracleasm configure -I

Configuring the Oracle ASM library driver.

 

This will configure the on-boot properties of the Oracle ASM library

driver.  The following questions will determine whether the driver is

loaded on boot and what permissions it will have.  The current values

will be shown in brackets ('[]').  Hitting <ENTER> without typing an

answer will keep that current value.  Ctrl-C will abort.

 

Default user to own the driver interface []: grid

Default group to own the driver interface []: asmadmin

Start Oracle ASM library driver on boot (y/n) [n]: y

Scan for Oracle ASM disks on boot (y/n) [y]: y

 

The next two configuration options take substrings to match device names.

The substring "sd" (without the quotes), for example, matches "sda", "sdb",

etc.  You may enter more than one substring pattern, separated by spaces.

The special string "none" (again, without the quotes) will clear the value.

 

Device order to scan for ASM disks []:

Devices to exclude from scanning []:

Directories to scan []:

Use device logical block size for ASM (y/n) [n]: y

Writing Oracle ASM library driver configuration: done

Unsere Festplatten sind fast vorbereitet. Mit oracleasm init aktivieren wir den Kernel und machen den Stempel auf die Platten drauf.

Wir aktivieren den Kernel auf RAC101- und RAC102-Servern.

1

2

3

4

5

[root@rac101 ~]# oracleasm init

Creating /dev/oracleasm mount point: /dev/oracleasm

Loading module "oracleasm": oracleasm

Configuring "oracleasm" to use device logical block size

Mounting ASMlib driver filesystem: /dev/oracleasm

1

2

3

4

5

[root@rac102 ~]# oracleasm init

Creating /dev/oracleasm mount point: /dev/oracleasm

Loading module "oracleasm": oracleasm

Configuring "oracleasm" to use device logical block size

Mounting ASMlib driver filesystem: /dev/oracleasm

Wir werden die Platten zum ASM Volumemanager hinzufügen. Wir tun dies nur auf RAC101.

1

2

3

4

5

6

7

8

9

10

11

12

[root@rac101 ~]# oracleasm createdisk crs1 /dev/sdb1

Writing disk header: done

Instantiating disk: done

[root@rac101 ~]# oracleasm createdisk crs2 /dev/sdc11

Writing disk header: done

Instantiating disk: done

[root@rac101 ~]# oracleasm createdisk crs3 /dev/sdd1

Writing disk header: done

Instantiating disk: done

[root@rac101 ~]# oracleasm createdisk oradata /dev/sde1

Writing disk header: done

Instantiating disk: done

[root@rac101 ~]# oracleasm createdisk fra /dev/sdf1

Writing disk header: done

Instantiating disk: done

Wir überprüfen unsere Festplatten.

1

2

3

4

5

6

[root@rac101 ~]# ll /dev/oracleasm/disks/

total 0

brw-rw—- 1 oracle dba 259,  5 Sep 13 02:38 DATA1

brw-rw—- 1 oracle dba 259,  7 Sep 13 02:38 DATA2

brw-rw—- 1 oracle dba 259, 11 Sep 13 02:39 FRA1

brw-rw—- 1 oracle dba 259,  9 Sep 13 02:38 FRA2

Damit der Prozess, den wir durchführen, von Rac102 aus angezeigt wird, führen wir den folgenden Befehl aus.

1

2

3

4

5

6

7

8

[root@rac102 ~]# oracleasm scandisks

Reloading disk partitions: done

Cleaning any stale ASM disks…

Scanning system for ASM disks…

Instantiating disk "CRS1"

Instantiating disk "CRS2"

Instantiating disk "CRS3"

Instantiating disk "ORADB"

Instantiating disk "FRA"

In diesem Abschnitt erstellen wir zwei zusätzliche ASM-Datenträgergruppen mit dem ASM-Konfigurationsassistenten ( asmca). Diese neuen ASM-Datenträgergruppen werden weiter unten in diesem Handbuch beim Erstellen der gruppierten Datenbank verwendet.

Melden Sie sich bei Knoten 1 als User grid an

Typ /u01/app/grid/19.3.0/gridhome_1/bin/asmca und Sie sollten jetzt das folgende Feld erhalten

Klicken Sie auf der Registerkarte Datenträgergruppe auf Erstellen

EinName für Ihre Datenträgergruppe eingeben

Auswählen von Datenträgern/Datenträgern

asmdisk2

Sie sollten die Bestätigungsmeldung sehen

asmdisk3

Als Nächstes erstellen Sie die FRA-Datenträgergruppe

Klicken Sie auf der Registerkarte Datenträgergruppe auf Erstellen

Setzen Sie einen Namen für Ihre Disk Group – FRA

Auswählen von Datenträgern/Datenträgern

asmdisk4

Stellen Sie sicher, dass Sie eine Bestätigungsnachricht erhalten

asmdisk5

Sie sollten jetzt alle Ihre Festplatten sehen

Überprüfen Sie, ob die Clusterdienste vor dem Starten des Installationsprogramms aktiviert sind.

Eingeben /u01/app/12.1.0.2/grid/bin/crsctl Statusressource -t

Unsere Festplatten sind jetzt bereit. Jetzt können wir die Installation starten. Zuallererst werden wir Grid installieren.

1

2

3

4

5

6

# cp V982068-01.zip /u01/app/grid/19.3.0/gridhome_1

# cd /u01/app/grid/19.3.0/gridhome_1

# chown grid:oinstall V982068-01.zip

# su – grid

# cd /u01/app/grid/19.3.0/gridhome_1

$ unzip V982068-01.zip

Clusterüberprüfungsdienstprogramm installieren

Da wir bereits entpackte Software haben, müssen wir ein ganz besonderes Paket installieren, Cluster Verification Utility, das während der Installation der Grid-Infrastruktur verwendet wird.

Auf Knoten 1.

[root@rac101 -]" cp -p /u01/app/grid/19.3.0/gridhome_1/cv/rpm/cvuqdisk-1.0.10-1.rpm /tmp[root@rac10gridhome_1 1 /cvuqdisk-1.0.10-1.rpm rac102:/tmp

Auf beiden Knoten.

[root@rac101 ‚]’rpm -Uvh /tmp/cvuqdisk-1.0.10-1.rpmVerifying…###..###. [100%]Vorbereiten…###.   1:cvuqdisk-1.0.10-1 .

 

Überprüfen Sie das Ergebnis.

[root@rac101 rpm -q cvuqdiskcvuqdisk-1.0.10-1.x86_64

Clusterüberprüfung

Bevor wir Grid infra installieren, sollten wir überprüfen, ob alles für die Netzinstallation bereit ist. Hier verwenden wir Oracle Cluster Verification Utility (CLUVFY), um zu überprüfen, ob es ein Problem in unserer grid Infrastruktur gibt.

[grid@rac101 ~]$ cd $ORACLE_HOME
[grid@rac101 grid]$ ./runcluvfy.sh stage -pre crsinst -n rac101,rac102 -verbose

ERROR:
PRVG-10467 : The default Oracle Inventory group could not be determined.

Verifying User Equivalence …FAILED (PRVG-2019, PRKC-1191)
PRVF-4009 : User equivalence is not set for nodes: rac102
Verification will proceed with nodes: rac101

Verifying Physical Memory …
  Node Name     Available                 Required                  Status
  ————  ————————  ————————  ———-
  rac101     3.6695GB (3847752.0KB)    8GB (8388608.0KB)         failed
Verifying Physical Memory …FAILED (PRVF-7530)
Verifying Available Physical Memory …
  Node Name     Available                 Required                  Status
  ————  ————————  ————————  ———-
  rac101     3.219GB (3375316.0KB)     50MB (51200.0KB)          passed
Verifying Available Physical Memory …PASSED
Verifying Swap Size …
  Node Name     Available                 Required                  Status
  ————  ————————  ————————  ———-
  rac101     3.9531GB (4145148.0KB)    3.6695GB (3847752.0KB)    passed
Verifying Swap Size …PASSED
Verifying Free Space: rac101:/usr,rac101:/var,rac101:/etc,rac101:/sbin,rac101:/tmp …
  Path              Node Name     Mount point   Available     Required      Status
  —————-  ————  ————  ————  ————  ————
  /usr              rac101     /             78.4101GB     25MB          passed
  /var              rac101     /             78.4101GB     5MB           passed
  /etc              rac101     /             78.4101GB     25MB          passed
  /sbin             rac101     /             78.4101GB     10MB          passed
  /tmp              rac101     /             78.4101GB     1GB           passed
Verifying Free Space: rac101:/usr,rac101:/var,rac101:/etc,rac101:/sbin,rac101:/tmp …PASSED
Verifying User Existence: grid …
  Node Name     Status                    Comment
  ————  ————————  ————————
  rac101     passed                    exists(54322)

  Verifying Users With Same UID: 54322 …PASSED
Verifying User Existence: grid …PASSED
Verifying Group Existence: asmadmin …
  Node Name     Status                    Comment
  ————  ————————  ————————
  rac101     passed                    exists
Verifying Group Existence: asmadmin …PASSED
Verifying Group Existence: asmdba …
  Node Name     Status                    Comment
  ————  ————————  ————————
  rac101     passed                    exists
Verifying Group Existence: asmdba …PASSED
Verifying Group Membership: asmdba …
  Node Name         User Exists   Group Exists  User in Group  Status
  —————-  ————  ————  ————  —————-
  rac101         yes           yes           yes           passed
Verifying Group Membership: asmdba …PASSED
Verifying Group Membership: asmadmin …
  Node Name         User Exists   Group Exists  User in Group  Status
  —————-  ————  ————  ————  —————-
  rac101         yes           yes           yes           passed
Verifying Group Membership: asmadmin …PASSED
Verifying Run Level …
  Node Name     run level                 Required                  Status
  ————  ————————  ————————  ———-
  rac101     3                         3,5                       passed
Verifying Run Level …PASSED
Verifying Users With Same UID: 0 …PASSED
Verifying Current Group ID …PASSED
Verifying Root user consistency …
  Node Name                             Status
  ————————————  ————————
  rac101                             passed
Verifying Root user consistency …PASSED
Verifying Package: cvuqdisk-1.0.10-1 …
  Node Name     Available                 Required                  Status
  ————  ————————  ————————  ———-
  rac101     cvuqdisk-1.0.10-1         cvuqdisk-1.0.10-1         passed
Verifying Package: cvuqdisk-1.0.10-1 …PASSED
Verifying Host name …PASSED
Verifying Node Connectivity …
  Verifying Hosts File …
  Node Name                             Status
  ————————————  ————————
  rac101                             passed
  Verifying Hosts File …PASSED

Interface information for node "rac101"

 Name   IP Address      Subnet          Gateway         Def. Gateway    HW Address        MTU
 —— ————— ————— ————— ————— —————– ——
 ens33  192.168.0.11    192.168.0.0     0.0.0.0         192.168.0.12 9  00:0C:29:DC:65:90 1500
 ens34  192.168.24.11   192.168.24.0    0.0.0.0         192.168.0.12 9  00:0C:29:DC:65:9A 1500
 ens33  2402:7500:52d:1a76:20c:29ff:fedc:6590 2402:7500:52d:1a76:0:0:0:0 UNKNOWN         ::              00:0C:29:DC:65:90 1500

Check: MTU consistency of the subnet "192.168.0.0".

  Node              Name          IP Address    Subnet        MTU
  —————-  ————  ————  ————  —————-
  rac101         ens33         192.168.0.11   192.168.0.0   1500

Check: MTU consistency of the subnet "2402:7500:52d:1a76:0:0:0:0".

  Node              Name          IP Address    Subnet        MTU
  —————-  ————  ————  ————  —————-
  rac101         ens33         2402:7500:52d:1a76:20c:29ff:fedc:6590  2402:7500:52d:1a76:0:0:0:0  1500

Check: MTU consistency of the subnet "192.168.24.0".

  Node              Name          IP Address    Subnet        MTU
  —————-  ————  ————  ————  —————-
  rac101         ens34         192.168.24.11  192.168.24.0  1500
  Verifying Check that maximum (MTU) size packet goes through subnet …PASSED
Verifying Node Connectivity …PASSED
Verifying Multicast or broadcast check …
Checking subnet "192.168.0.0" for multicast communication with multicast group "224.0.0.251"
Verifying Multicast or broadcast check …PASSED
Verifying Network Time Protocol (NTP) …PASSED
Verifying Same core file name pattern …PASSED
Verifying User Mask …
  Node Name     Available                 Required                  Comment
  ————  ————————  ————————  ———-
  rac101     0022                      0022                      passed
Verifying User Mask …PASSED
Verifying User Not In Group "root": grid …
  Node Name     Status                    Comment
  ————  ————————  ————————
  rac101     passed                    does not exist
Verifying User Not In Group "root": grid …PASSED
Verifying Time zone consistency …PASSED
Verifying resolv.conf Integrity …
  Node Name                             Status
  ————————————  ————————
  rac101                             passed

checking response for name "rac101" from each of the name servers specified
in "/etc/resolv.conf"

  Node Name     Source                    Comment                   Status
  ————  ————————  ————————  ———-
  rac101     192.168.0.199             IPv4                      passed
Verifying resolv.conf Integrity …PASSED
Verifying DNS/NIS name service …PASSED
Verifying Domain Sockets …PASSED
Verifying /boot mount …PASSED
Verifying Daemon "avahi-daemon" not configured and running …
  Node Name     Configured                Status
  ————  ————————  ————————
  rac101     no                        passed

  Node Name     Running?                  Status
  ————  ————————  ————————
  rac101     no                        passed
Verifying Daemon "avahi-daemon" not configured and running …PASSED
Verifying Daemon "proxyt" not configured and running …
  Node Name     Configured                Status
  ————  ————————  ————————
  rac101     no                        passed

  Node Name     Running?                  Status
  ————  ————————  ————————
  rac101     no                        passed
Verifying Daemon "proxyt" not configured and running …PASSED
Verifying User Equivalence …PASSED
Verifying RPM Package Manager database …INFORMATION (PRVG-11250)
Verifying /dev/shm mounted as temporary file system …PASSED
Verifying File system mount options for path /var …PASSED
Verifying DefaultTasksMax parameter …PASSED
Verifying zeroconf check …PASSED
Verifying ASM Filter Driver configuration …PASSED

Pre-check for cluster services setup was unsuccessful on all the nodes.

Failures were encountered during execution of CVU verification request "stage -pre crsinst".

Verifying User Equivalence …FAILED
rac102: PRVG-2019 : Check for equivalence of user "grid" from node
           "rac101" to node "rac102" failed

           PRKC-1191 : Remote command execution setup check for node rac102
           using shell /usr/bin/ssh failed.
           No ECDSA host key is known for rac102 and you have requested
           strict checking.Host key verification failed.

Verifying Physical Memory …FAILED
rac101: PRVF-7530 : Sufficient physical memory is not available on node
           "rac101" [Required physical memory = 8GB (8388608.0KB)]

Verifying RPM Package Manager database …INFORMATION
PRVG-11250 : The check "RPM Package Manager database" was not performed because
it needs 'root' user privileges.

CVU operation performed:      stage -pre crsinst
Date:                         Oct 12, 2020 1:25:41 PM
CVU home:                     /u01/app/19.0.0/grid/
User:                         grid

Wie wir sehen können, gibt es einige Probleme:

  1. Oracle Inventory-Gruppe

PRVG-10467 : Die standardmäßige Oracle-Inventargruppe konnte nicht ermittelt werden.

Da wir noch nie Oracle-Produkte auf diesem Server installiert haben, ist dieser Fehler normal.

  1. Benutzeräquivalenz

PRVF-4009 : Benutzeräquivalenz ist nicht für Knoten eingestellt: rac102

oder dies:

PRVG-2019 : Überprüfen Sie die Äquivalenz des Benutzers "Grid" vom Knoten

Wir haben noch keine Benutzeräquivalenz für Grid festgelegt, daher ist dieser Fehler auch normal.

  1. Physischer Speicher

PRVF-7530 : Ausreichend physischer Speicher ist auf Knoten nicht verfügbar

Das stimmt, wir haben die Anforderung des physischen Speichers nicht erreicht, aber es kann ignoriert werden.

Kein großes Problem hier, also können wir einfach weitermachen.

Weitere Korrekturen

Verschiedene Plattformen können verschiedene Probleme haben, wenn Sie sie getroffen haben, hier sind einige behoben, die hilfreich sein können.

Versionskorrektur

Wenn Sie OUI gestartet haben, wird möglicherweise EIN unerwarteter INS-08101-Fehler beim Ausführen der Aktion im Status "supportedOSCheck" angezeigt, wenn Sie Enterprise Linux 8 oder höher verwendet haben. Sie sollten CV_ASSUME_DISTID Umgebungsvariable auf einen niedrigeren Wert festlegen, um INS-08101 zu lösen,sagen Sie OEL7.8, um OUI glauben zu machen, dass es sich um eine kompatible Betriebssystemversion handelt.

Shared Memory

Bei einigen Servern müssen Sie den freigegebenen Speicher möglicherweise manuell optimieren.

[root@rac101 . vi /etc/fstab… tmpfs /dev/shm tmpfs size=6g 0 0

Oder verwenden Sie MB als Einheit.

tmpfs /dev/shm tmpfs size=6144m 0 0

Um es sofort wirksam zu machen, können Sie dies tun:

[root@rac101 -o mount /dev/shm

Wichtiger Hinweis: Wenn Sie auf OEL 8 installieren. 3, Oracle Database 19C unterstützt diese Version derzeit nicht offiziell. Sie müssen den folgenden Parameter festlegen.

1

2

3

4

Seine – Raster

Export CV_ASSUME_DISTID=OEL8. 1

$ cd /$GRID_HOME/

$ . /grid_Setup. sh

OpenSSH 8.x Problem: Da Linux 8.3 OpenSSH 8.x verwendet, funktionieren verwandte Befehle wie scp etwas anders als je zuvor. Wenn das Installationsprogramm von Grid infra 19.3 die SSH-Konnektivität überprüft, schlägt dies mit INS-06006 immer fehl. Obwohl Sie die Konnektivität manuell herstellen, kann die SSH-Validierung nicht bestanden werden.

So überprüfen Sie die Version von OpenSSH:

[root@rac101 ~]# ssh -V
OpenSSH_8.0p1, OpenSSL 1.1.1c FIPS 28 May 2019

Problemumgehung

Die Problemumgehung besteht darin, die strikte Überprüfung des Dateinamens durch Hinzufügen einer Option -T zu deaktivieren. Dieses muss auf beiden RAC Knoten vorgenommen werden.

[root@rac101 ~]# cp -p /usr/bin/scp /usr/bin/scp-original

[root@rac101 ~]# echo "/usr/bin/scp-original -T \$*" > /usr/bin/scp

[root@rac101 ~]# cat /usr/bin/scp

/usr/bin/scp-original -T $*

Brechen Sie die Installation ab und versuchen Sie es erneut.

 

Wir klicken auf "Konfigurieren eines oracle Standalone-Clusters", da wir einen neuen Cluster erstellen werden.

Wir schreiben unsere Clusternamen und Scannamen Informationen.

Wir fügen unseren zweiten Server hinzu.

Nach dem Hinzufügen müssen die beiden Server miteinander sprechen. Wir werden SSH dafür verwenden.

In dieser Phase wird das System miteinander mit dem Benutzer "GRID" sprechen. Wir schreiben das Passwort unseres Grid-Benutzers.

Wir müssen die Netzwerkinformationen schreiben. Wir arrangieren es wie folgt.

Die Installation erfolgt auf den 4 ASM-Festplatten, die wir hinzugefügt haben. Wir klicken auf "Verwenden Sie Oracle Flex ASM für speicher".

Jetzt werden wir unsere Festplatten hinzufügen. Da ich die Testinstallation gemacht habe, wähle ich "EXTERNAL" L".

Ich füge meinen CRS1, CRS2, und CRS3 Datenträger hinzu, die ich für die +CRS vorbereitet habe.

Ich habe ein Kennwort für SYS- und ASMSNMP-Benutzer festgelegt, die im Grid verwendet werden sollen.

Oracle führt traditionell im letzten Schritt der Installation ein Skript mit dem Root-Benutzer aus. Wenn wir möchten, dass dieser Prozess automatisch abläuft, können wir dieses Feld ausfüllen. Auf diese Weise wird ein Skript automatisch ausgeführt, wenn ein Skript mit dem Root-Benutzer während der Installation ausgeführt wird.

Der Systemstatus wird überprüft. Einige Warnungen wurden in meiner Installation angezeigt. Beispielsweise reicht RAM nicht aus, da mindestens 12 GB RAM empfohlen werden. Ich klicke auf "IGNORE ALL".

Die GRID-Installation für Oracle Database RAC ist abgeschlossen. Tatsächlich ist das GRID-Setup die längste und anspruchsvollste. Die Grid Installation hat sehr empfindliche Punkte. Wenn NTP beispielsweise falsch ist, liegt ein Problem vor. In userer Distribution gibt es anstatt ntp nur noch den chrony Damon. Dieser muss passend konfiguriert sein. Aufgrund des Clusters muss die Uhr beider Server gleich sein. Aus diesem Grund ist eine saubere GRID-Installation unerlässlich.

Das nächste Kapitel ist die Installation von Oracle Database auf RAC. Dann werden wir unsere Tests machen.

Dieser Beitrag wurde unter ORACLE RAC veröffentlicht. Setze ein Lesezeichen auf den Permalink.