HowTo Backup Daily Legato Administration

April 6th, 2011 von sdohn

HowTo Backup Daily Legato Administration

von Stefan M. Dohn, Datenbank Administrator


Inhaltsverzeichnis

 

 

 

 

 


Networker Kommandos für die Daily Tape Administration

Summarium von SDohn Stand vom 14.12.2006

 

alle Medien in der Jukbox anzeigen lassen. (Medium 1-174)

nsrjb -s casivbackup -j L180
nsrjb -s casivbackup -j rd=storagenode:SL500

Recovern von Files und Foldern eines anderen Quellrechners.

recover -c testhost -d C:\recoverhost
(name des sicherungsclients) (name des verzeichnisses in das zurückgesichert werden soll)

(Unload) Entlädt alle Medien aus den Laufwerken

nsrjb -j L180 -u
nsrjb -j rd=storagenode:SL500 -u
nsrjb -j rd=storagenode:SL500 -u -f rd=storagenode:/dev/rmt/1cbn

Positioniert ein Tape Cartridge vom Zugriffs-Port Slot 1 zum Jukebox Slot 26

nsrjb -j L180 -d -P1 -S26
nsrjb -j rd=storagenode:SL500 -d -P1 -S26

Entfernt(withdrawn) ein Tape Cartridge von Jukebox Slot 10 zum Zugriffs-Port Slot 5

nsrjb -j L180 -w -S10 -P5

Lädt Volume 000001 in das erste Laufwerk

nsrjb -j L180 -l -f /dev/rmt/0cbn 000001

Lädt Volume 000002 in das zweite Laufwerk

 nsrjb -j L180 -l -f /dev/rmt/1cbn 000002
 nsrjb -j rd=storagenode:SL500 -l -f rd=storagenode:/dev/rmt/1cbn B5L009

Lädt das Tape Cartridge von Jukbox Slot 2 in ein freies Laufwerk, und schreibt ein Label.

Vorraussetzung: Das Tape hat ein Barcode Label.
nsrjb -j L180 -L -S2 -b casivcentral

Einen Jukebox Slot neu Inventarisieren lassen(nötig beim wiedereinlegen eines Tapes)

nsrjb -j L180 -I -S11

Datenbanksyncronisationsfehler beseitigen

   Die Datenbanksynchronisationsfehler unter SunStorageEBS(Legato)
   können mit folgenden Befehlen beseitigt werden:
   nsrjb -j L180 -HEv
   Abschliessend noch das Inventory der Schächte.
   nsrjb -j L180 -Iv

Alle savesets heraussuchen f. catega2 welche im Jahr 2003 angelegt worden sind

mminfo -q 'savetime>="01/01/03 0:0:0", savetime<="12/30/03 0:0:0"' -v -c catega2.central

Testsicherung eines Clients vornehmen ohne wirklich etwas aufs Band zu sichern(Debugging)

savegrp -nv -l full -c tdm1a-44.cids BCRVM1
(mehrere "v"(Verbose) erhoehen das Debugging)

Test mit dem NSRADMIN Tool ob die gegenseite (Der Client) erreicht werden kann

nsradmin -s ops-42.ima -v1 -p 390113
danach v tippen für "visual presentation".

Starten eines Server initierten FULL Backups des Clients casivcvs ohne Berücksichtigung des Schedules der casiv-central Gruppe

savegrp -l full -c casivcvs casiv-central

Starten eines vom Client inizierten Backups, benutzt ein VOLUME des casiv-central pools.

save -s casivbackup -c adshost-42m.ima.a400 -b BCRVM1 -l full /

Einen Medienreport aller VOLUMES fuer den client casivcvs der letzten Woche generieren.

mminfo -m -q "client=casivcvs,savetime>=last week"

Suchen nach Dateien in der Medienindex Datenbank:

nsrinfo -s casivbackup -N /etc/resolv.conf cnode1

 

Das Datum herausbekommen an dem ein Volume gelabeled wurde:

mminfo -a -r "volume,olabel" | grep UFSD00

Alle Volumes welche Recycled werden können anzeigen:

mminfo -a -r "volume,%used" -q "volrecycle"

Alle Volumes welche Voll sind anzeigen:

mminfo -a -r "volume,%used" -q "full"

Die groesse eines Savesets fuer einen einzelnen Client anzeigen:

mminfo -a -q "client=cnode1" -r "name,level,sumsize"

Alle Browsebaren savesets fuer einen Client anzeigen:

mminfo -a -c cnode1

Alle savesets eines Clients fuer ein bestimmtes Datum heraussuchen:

mminfo -a -c cnode1 -t'11/14/04'

Dateien innerhalb eines Savesets listen(2 Step Process)

mminfo -r nsavetime -v -N /lunc2d2 -c cnode2 -ot
1100213207
1100298794
1100385216
1100471618
1100558011
Die letzte Zeile ist das neueste Saveset.
nsrinfo -t 1100558011 cnode2

Alle savesets eins Volumes anzeigen lassen:

mminfo -q 'volume=CSCL91' -r 'ssid,name'

Alle vermutlich defekten savesets anzeigen lassen:

mminfo -r "ssid, client, name, savetime" -q "suspect"

 

Verschiedene Versionen einer Datei anzeigen lassen:

Auf dem Client

recover
recover> versions /lunc2d4/ora4/OraHome1/network/admin/tnsnames.ora
Versions of `/lunc2d4/ora4/OraHome1/network/admin/tnsnames.ora':
  1 -rw-r--r-- ora4     dba           985 Aug 04 16:28  tnsnames.ora
    save time:  Mon Oct 11 01:15:25 2004
     location:  Unknown
  1 -rw-r--r-- ora4     dba           985 Aug 04 16:28  tnsnames.ora
    save time:  Mon Sep 13 00:40:32 2004
     location:  Unknown
  1 -rw-r--r-- ora4     dba           985 Aug 04 16:28  tnsnames.ora
    save time:  Mon Aug 16 00:21:52 2004
     location:  Unknown

Abfrage des Clientindex mit nsrinfo

nsrinfo -N /nsr/nsrscripts/mailprint.pl casivbackup
scanning client `casivbackup' for all savetimes from the backup namespace
/nsr/nsrscripts/mailprint.pl, date=1173652344 Sun Mar 11 23:32:24 2007
/nsr/nsrscripts/mailprint.pl, date=1171837949 Sun Feb 18 23:32:29 2007

Welche Clients stecken in welchen Pool(Datenbank Version):

mminfo -r client -q pool="sib44" | sort -u

Auf welche Medien hat noch keine Sicherung stattgefunden(sind leer):

mminfo -m -q written=0

Alle registrierten Networker Clients anzeigen lassen (mminfo Version):

mminfo -r client | sort -u

Ueberpruefen von NetWorker enablern:

nsrcap -vv -nc enabler_code

Upgrade des NetWorker base- enabler:

nsrcap -vu enabler_code

Alle vorhadenen Savegroups herausfinden

mminfo -r group | sort -u | uniq

Welche Volumes koennen recycled werden:

mminfo –m –q volrecycle=true

Die Daten eines Clients haben ihre browse policy überschritten, ein früher geforderter Zeitraum ist nicht auswählbar:

nsrck -L7 -t mm/dd/yy adshost-52.dsms

Die Daten haben ihre retension time überschritten:

scanner -m # Auf dem Tape ausführen wo die Daten drauf sind(siehe Bootstrap Report)
nsrmm -d volume_name # Volume aus der Medien DB löschen
scanner -m # Volume wieder hervorzaubern mit Stand vom Band
nsrck -L7 -t mm/dd/yy adshost-52.dsms # Recovern des Indexes

Report wieviel Datenvolumen ein Client gestern gebackuped hat:

mminfo -c casivbackup -t yesterday -r 'client(20),space,space,space,name,savetime(7),space,space,level(6),space,space,nfiles(9),totalsize(15)'

Ein Full Level Backup der bootstraps vornehmen:

savegr -O -l full -G BCRVM1

 

Auf welchen Bändern wurde ein bestimmter Client zuletzt gesichert

mminfo -av -q "client=adshost-10.victoria" -r "volume,name,savetime,ssid,level,ssflags,nsavetime,location,mediafile,mediarec"

 

Welche Clients stecken in welchen Pool:(nsrinfo Version)

root@casivbackup # nsradmin
NetWorker administration program.
Use the "help" command for help, "visual" for full-screen mode.
nsradmin> . type : NSR client;group:sib44
Current query set
nsradmin> show name
nsradmin> print

Wann war die letzte Komplettsicherung eines Clients

mminfo -c casivnfs -q level=full -ot | tail -1

Einrichten und Inventarisieren von Cleaning Tapes in das L180

Ersteinrichtung:
1. Menu Auswaehlen: Jukeboxes von dem Media Menu.
2. In dem Jukeboxes Fenster, die zutreffende jukebox
  von der Jukeboxes liste auswaehlen.
3. Auto Clean auf Yes setzen.
4. Setzen der Cleaning Slots zu der Anzahl der Slots welche
  Cleaning Cartridges enthalten.
5. Setzen der "Default Cleanings" bis zu der vom Hersteller vorgegeben maximalen
  Nutzdauer des Cleaning Tapes. Die Information dazu sollte auf der Catridge Verpackung stehen.
6. Mit Apply bestaetigen.
7. Hinzufügen der Cleaning Cartridges zu den Slots welche in Step 4 spezifiziert worden sind.
8. Auf der Kommandozeile line, sind folgende Komandos einzutippen, um die Jukebox
  darüber zu informieren, das ein Cleaning Cartridge eingesetzt worden ist.
Fuer eine Jukebox:
nsrjb -U <uses> -j <jukebox name>
Fuer ein Silo: nsrjb -U <uses> -T <silo barcode>
Fuer jedes Device in der Jukebox das automatisch gereinigt werden soll:
1. Menu Auswählen: Devices von dem Media Menu.
2. In dem Devices Fenster, das Device von der Devices Liste auswaehlen.
3. In dem Cleaning Interval Feld, die Anzahl der Tage(days), Wochen(weeks),
  oder Monate(month) der Reinigungs Intervalle Auswaehlen.
4. Mit Apply bestaetigen.

DDS (Dynamic Drive Sharing) eines Storagenodes im San einrichten:

Das Device auf dem Backup Server manuell eintragen:
z.b.: rd=storagenode:/dev/rmt/1cbn
Mit dem jbedit Alpha Komando das gesharte Device anlegen
Die Kommunikation im San läuft dabei über die Jukebox
Mit dem relem Befehl den Element Status des Laufwerks herausfinden
Eine Ausgabe könnte für ein Tape Drive so aussehen: <Data Transfer Element 256>      Empty.
jbedit -a -f rd=doc-srv.eso.io.com\\.\Tape0 -E 256 -s san-admin.eso-io.com -j ADIC3.0.3

Einen Backup Client per Script erzeugen:

Dieses Kommando wird einen Backup Client im Networker Server erzeugen.
Nützlich, wenn das GUI nicht vorhanden ist, oder man eine Client Resource per Script erzeugen will.
 Kommando:

 nsradmin -i client1.txt

 Wobei client1.txt die folgenden Kommandos enthaelt:

 create type:NSR client;
 name:samba.hb.central.a400;
 server:casivbackup;
 schedule:Full;
 browse policy:Quarter;
 retention policy:Year;
 group:BCRVM1;
 save set:All;
 aliases:samba.hb.central;
 storage nodes:nsrserverhost;

Einen Backup Client per Script modifizieren:

 Kommando:

 nsradmin -i client2.txt

 Wobei client2.txt die folgenden Kommandos enthaelt:
 print type:NSR client;name:adshost-21m.ecs.a400
 update scheduled backup:Enabled;
 storage nodes:storagenode,nsrserverhost;

Einen Networker Report über das Konfigurierte System anfertigen:

nsrsup -C --html -o /tmp/support.html # -C (keinen Client Report erzeugen)

 

How to export and import Networker policies, groups, schedules, volumes

Going to nsradmin prompt and saying show and then print will give you all basic data
(or simply use output created by nsrsup output).
However since you  don't care about licenses and probably
not about jukebox and devices either
I would suggest to copy over nsrdb
and then delete all entries for NSR  license,
NSR jukebox and NSR device on target host.

nsradmin> option hidden
Hidden display option turned on

Display options:
        Dynamic: Off;
        Hidden: On;
        Raw I18N: Off;
        Resource ID: Off;
nsradmin> print

Eine Datei erstellen: nsr_printressources.cmd
Inhalt:
option hidden
print

Eine Datei erstellen: nsr_getresources.sh
Inhalt:
nsradmin -i nsr_printressources.cmd > /tmp/nw_`uname -n`_ressources.txt

Den GST Console Management Server debuggen:

GST_DEBUG=2 ; export GST_DEBUG # Umgebungsvariable setzen

Das savepnpc Command:

savepnpc Command

The client has savepnpc specified in the Backup command: field on the server.

The /nsr/res/TEST.res file on client contains the following information:

type: savepnpc;
precmd: /nsr/bin/precmd.sh;
pstcmd: /nsr/bin/pstcmd.sh;
timeout: "11:00pm";

NOTENOTE: Both the pre and post scripts need to have the necessary
environment setup in them, because savepnpcdoes not pass any kind of environment to the scripts.

NOTE:The start/stop of the pre and post commands
are recorded in /nsr/logs/savepnpc.log.

NOTENOTE: If the pre command fails (exit status non-zero),
the saves for that client aborts and does not run.
It also does not start the post command process,
so the post script will never run and the /nsr/tmp/TEST.tmp file remains.
You need to manually remove this file.

NOTENOTE? If a savegroup session is manually aborted or stopped on the server,
the /nsr/tmp/TEST.tmp file remains.
(This file remains because the server allows you to restart it later.)
Also, because an abort does not clear up the work list for the client,
the client still thinks there are saves to be completed and the post script does not run.

NOTENOTE: If a new savegroup session is started and there is an existing
/nsr/tmp/TEST.tmp file, it skips the pre and post commands;
however it will run the filesystem save sessions.

When a savegroup starts, the following happens (this example uses the groupTEST):

   1. The server starts the group.
   2. The server sees the client has savepnpc specified as the backup command.
   3. The server contacts the client and checks for a /nsr/res/TEST.res file.
      (If there is not one, a dummy res file will be created.)
   4. The client executes the pre command script specified in the file (precmd: /nsr/bin/precmd.sh).
      It creates a tmp file indicating that savepnp c is running, /nsr/tmp/TEST.tmp.
   5. The client also executes a process that monitors the status of the saves waiting for completion 
      and the timeout value specified in /nsr/res/TEST.res. (timeout:"11:00pm";)
   6. After the pre script successfully completes, the server initiates the filesystem saves.
      During this time the client is constantly checking the server to see if the saves are completed.
   7. As soon as the saves have completed (or the timeout value has been reached),
      the client executes the post script specified in the /nsr/res/TEST.res file.
      (pstcmd:/nsr/bin/pstcmd.sh;).
   8. Then the client removes the /nsr/tmp/TEST.tmp file.

Welche Medientypen unterstützt mein Networker:

NSR_DEV_BLOCK_SIZE_MSG=YES; export NSR_DEV_BLOCK_SIZE_MSG
# Umgebungsvariable setzen # siehe /nsr/logs

Welche Version hat mein Networker Client:

nsradmin
show NetWorker version
show name
print type:NSR client