ETL-Prozess

In der Computer Extract, Transform and Load bezieht sich auf ein Verfahren, in Datenbanknutzung und vor allem in Data Warehousing, dass:

  • Extrahiert Daten aus homogenen oder heterogenen Datenquellen
  • Wandelt die Daten für die Speicherung in geeigneten Format oder Struktur für die Abfrage und Analyse Zweck
  • Lädt sie in das endgültige Soll

In der Regel alle drei Phasen parallel ausgeführt, da die Datenextraktion dauert seine Zeit, so dass, während die Daten gezogen weiteres Transformationsprozess ausführt, die Verarbeitung der bereits empfangenen Daten und bereitet die Daten für die Beladung und sobald es einige Daten bereit, geladen werden in die Ziel, schlägt das Laden von Daten aus, ohne auf den Abschluss der vorangegangenen Phasen.

ETL-Systeme üblicherweise Integration von Daten aus verschiedenen Anwendungen, in der Regel entwickelt und von verschiedenen Herstellern unterstützt oder auf getrennten Computer-Hardware gehostet. Die unterschiedlichen Systemen mit den Originaldaten werden häufig verwaltet und von verschiedenen Mitarbeitern betrieben. Zum Beispiel kann ein Kostenrechnungssystem können Daten aus der Personalabrechnung, Vertrieb und Einkauf zu kombinieren.

Extrakt

Der erste Teil eines ETL-Prozess beinhaltet Extrahieren der Daten aus den Quellsystemen. In vielen Fällen ist dies der schwierigste Aspekt des ETL, da korrekt Extrahieren von Daten schafft die Voraussetzung für den Erfolg der nachfolgenden Prozesse.

Die meisten Data-Warehousing-Projekte zu konsolidieren Daten aus unterschiedlichen Quellsystemen. Jedes einzelne System kann auch einen anderen Datenorganisation und / oder Format. Gemeinsame Datenquellen-Formate sind relationale Datenbanken, XMLs und Flat Files, kann aber nicht-relationale Datenbankstrukturen, wie Information Management System oder andere Datenstrukturen, wie beispielsweise Virtual Storage Access Method oder Indexed Sequential Access Method, oder sogar das Abrufen von externen Quellen, wie beispielsweise gehören durch Web-Spidern oder Screen-Scraping. Streamen der extrahierten Daten Quelle und Last on-the-fly zu der Zieldatenbank ist eine andere Art der Durchführung ETL wenn keine Zwischenspeicherung von Daten erforderlich ist. Im Allgemeinen ist das Ziel der Extraktionsphase, die Daten in einem einzigen Format entsprechende Transformationsverarbeitung umzuwandeln.

Ein wesentlicher Bestandteil der Extraktion beinhaltet die Datenüberprüfung, um zu bestätigen, ob die von den Quellen gezogen Daten über die korrekten / Erwartungswerte in einer bestimmten Domäne. Bei Ausfall der Daten die Validierungsregeln sie ganz oder teilweise abgelehnt. Die zurückgewiesenen Daten ist ideal auf die Quelle-System gemeldet zur weiteren Analyse zu identifizieren und zu beheben, die in-korrekten Datensätzen. In Fällen, in der Extraktionsprozess selbst kann, um die Datengültigkeitsregel, um die Daten zu übernehmen, um in die nächste Phase zu fließen ändern.

Transformieren

Die Datentransformationsstufe legt eine Reihe von Regeln und Funktionen, die den extrahierten Daten aus der Quelle, um die Daten zum Laden in das Ende Ziel abzuleiten. Einige Daten benötigen keine Transformation überhaupt; als direkte Bewegung bekannt oder durchlaufen Daten in technischer Hinsicht.

Eine wichtige Funktion der Datentransformation ist Reinigung der Daten, die nur richtige Daten in die Ziel passieren soll. Wenn unterschiedliche Systeme miteinander interagieren; basierend darauf, wie diese Systeme Daten zu speichern, gibt es eine Herausforderung in Schnitt / miteinander kommunizieren. Bestimmte Zeichensatz, der in einem System verfügbar sein können, möglicherweise nicht verfügbar in anderen. Diese Fälle müssen korrekt gehandhabt werden oder eventuell zu einer Reihe von Datenqualitätsfragen zu führen.

In anderen Fällen eine oder mehrere der folgenden Transformationstypen erforderlich sein, um die geschäftlichen und technischen Anforderungen von dem Server oder Datawarehouse zu erfüllen:

  • Nur bestimmte Spalten der Auswahl zu laden :. Zum Beispiel, wenn die Quelldaten hat drei Spalten, roll_no, Alter und Gehalt, dann wird die Auswahl kann nur roll_no und Gehalt zu nehmen. In ähnlicher Weise kann der Auswahlmechanismus all diejenigen Datensätze zu ignorieren, wo Gehalts nicht vorhanden ist.
  • Übersetzen von codierten Werte:
  • Kodiert, Freiform-Werte:
  • Ableiten eines neuen berechneten Wert:
  • Sortierung: sortieren Sie die Daten auf der Grundlage einer Liste von Spalten zur Verbesserung der Suche
  • Joining Daten aus mehreren Quellen und Deduplizierung der Daten
  • Aggregation
  • Erzeugen von Surrogat-Schlüsselwerte
  • Umsetzung oder Schwenk
  • Aufteilen einer Spalte in mehrere Spalten
  • Disaggregation von wiederkehrenden Spalten in eine separate Detailtabelle
  • Look up und Validierung der relevanten Daten aus Tabellen oder Referenzdateien für langsam veränderliche Dimensionen.
  • Anwenden jede Form von einfachen oder komplexen Datenvalidierung. Wenn die Validierung fehlschlägt, kann es in einer voll, teilweise oder keine Ablehnung der Daten führen, und somit keine, einige oder alle Daten werden über zum nächsten Schritt übergeben, abhängig von der Regel Design und Ausnahmebehandlung. Viele der obigen Transformationen können in Ausnahmefällen, beispielsweise ergeben, wenn ein Codeübersetzungs parst einen unbekannten Code in den extrahierten Daten.

Belastung

Die Ladephase lädt die Daten in das Ende Ziel, das ein einfaches de begrenzte flache Datei oder ein Data Warehouse sein können. Je nach den Anforderungen der Organisation, variiert dieses Verfahren weit verbreitet. Einige Daten Hallen bestehende Informationen mit kumulativen Daten zu überschreiben; Aktualisierung extrahierten Daten wird häufig auf einer täglichen, wöchentlichen oder monatlichen Basis. Andere Data Warehouses können neue Daten in einer historischen Form in regelmäßigen Abständen zB hinzuzufügen, stündlich. Um dies zu verstehen, sollten Sie ein Data Warehouse, das erforderlich ist, um Verkaufszahlen des letzten Jahres zu halten. Das Data Warehouse überschreibt alle Daten, die älter als ein Jahr mit neueren Daten. Jedoch ist die Eingabe von Daten für irgendein Jahresfenster in historischer Weise hergestellt. Zeitpunkt und Umfang zu ersetzen oder append sind strategische Design-Entscheidungen abhängig von der zur Verfügung stehenden Zeit und den geschäftlichen Anforderungen. Komplexere Systeme können eine Geschichte und Audit-Trail aller Änderungen an den im Data Warehouse geladen Daten pflegen.

Da der Ladephase mit einer Datenbank zusammenwirkt, die in dem Datenbankschemas als auch in Triggern auf Datenlast aktiviert definierten Einschränkungen bestehen, die ebenfalls mit der gesamten Datenqualitätsleistung des ETL-Prozesses beizutragen.

  • Zum Beispiel könnte ein Finanzinstitut Informationen über einen Kunden in mehreren Abteilungen und jede Abteilung haben könnte, dass die Informationen des Kunden auf eine andere Weise aufgeführt. Die Mitgliedschaft Abteilung könnte dem Kunden namentlich aufzulisten, während der Buchhaltungsabteilung kann der Kunde nach Anzahl aufzulisten. ETL können alle diese Datenelemente bündeln und konsolidieren sie in eine einheitliche Darstellung, wie beispielsweise für die Speicherung in einer Datenbank oder Data Warehouse.
  • Eine weitere Möglichkeit, die Unternehmen nutzen ETL ist es, Informationen zu einer anderen Anwendung dauerhaft zu bewegen. Zum Beispiel könnte die neue Anwendung einen anderen Datenbankanbieter und sehr wahrscheinlich eine ganz andere Datenbankschemas verwenden. ETL verwendet, um die Daten in eine für die neue Anwendung zu bedienen Format zu transformieren.
  • Ein Beispiel hierfür wäre eine Aufwands- und Kosten Recovery System, wie beispielsweise durch die Buchführung, Unternehmensberatungen und Rechtsanwälten eingesetzt. Die Daten in der Regel am Ende in der Zeit und Billing-System, auch wenn einige Unternehmen kann auch die Rohdaten für die Produktivität der Mitarbeiter Berichte an die Personalabteilung oder Geräte Nutzungsberichte zu Facility Management zu nutzen.

Real-Life-ETL-Zyklus

Die typischen realen ETL-Zyklus besteht aus den folgenden Ausführungsschritte:

  • Zyklus Einleitung
  • Bauen Sie Referenzdaten
  • Extrakt
  • Validieren
  • Transformieren
  • Stadium
  • Prüfungsberichte
  • Veröffentlichen
  • Archivieren
  • Aufräumen

Herausforderungen

ETL-Prozesse können mit erheblichen Komplexität und erheblichen operativen Problemen mit falsch ausgelegt ETL Systemen auftreten.

Der Bereich der Datenwerte oder Datenqualität in einem Betriebssystem kann zum Zeitpunkt der Validierung und Transformationsregeln festgelegt, die Erwartungen von Designern überschreiten. Data Profiling von einer Quelle bei der Datenanalyse können die Daten Bedingungen, die durch Transformationsregeln Daten verwaltet werden müssen identifizieren. Dies führt zu einer Änderung der Validierungsregeln im ETL-Prozess explizit und implizit umgesetzt.

Datenlager sind typischerweise aus einer Vielzahl von Datenquellen mit unterschiedlichen Formaten und Zwecken zusammengefügt. Als solches ist ETL ein Schlüsselprozess, um alle Daten in einem Standard zusammen zu bringen, homogenen Umgebung.

Design-Analysten sollte die Skalierbarkeit eines ETL-System über die gesamte Lebensdauer ihrer Nutzung zu schaffen. Dazu gehören das Verständnis der Datenmengen, die in Service Level Agreements verarbeitet werden müssen. Die zur Verfügung stehende, von Quellsystemen zu extrahieren kann sich ändern, die die gleiche Menge an Daten bedeuten kann Zeit haben, um in kürzerer Zeit verarbeitet werden. Einige ETL-Systeme haben, um zu skalieren, um Terabytes an Daten zu verarbeiten, um Data Warehouses mit Zehn Terabyte Daten zu aktualisieren. Steigende Datenmengen erfordern Designs, die aus dem täglichen Batch um mehrtägige Mikro Charge zur Integration mit Message Queues oder Echtzeit-Wechseldatenerfassung für die kontinuierliche Transformation und Aktualisierung skalieren können.

Leistung

ETL-Anbieter Benchmark ihre Plattensysteme an mehreren TB pro Stunde mit leistungsfähigen Servern mit mehreren CPUs, mehrere Festplatten, mehrere Gigabit-Netzwerkverbindungen, und viel Speicher. Der schnellste ETL Rekord wird derzeit von Syncsort, Vertica und HP auf 5.4TB in weniger als einer Stunde, die mehr als doppelt so schnell wie der früheren Rekord von Microsoft und Unisys gehalten wird gehalten.

Im wirklichen Leben, tritt der langsamste Teil eines ETL-Prozess in der Regel in der Datenbank Belastungsphase. Datenbanken können langsam durchführen, weil sie müssen sich um Parallelität, Integrität Wartung und Indizes zu nehmen. So kann eine bessere Leistung, kann es sinnvoll zu beschäftigen:

  • Direkten Weg Extract Methode oder Groß Entladen, wann immer möglich ist, die Last auf Quellsystem zu reduzieren, während sich High-Speed-Extrakt
  • Die meisten der Transformationsverarbeitung außerhalb der Datenbank
  • Massenladeoperationen, wann immer möglich.

Doch auch mit Massenvorgänge, Datenbankzugriff ist in der Regel der Engpass in der ETL-Prozess. Einige übliche Verfahren verwendet werden, um die Leistung zu erhöhen, sind:

  • Partitionstabellen. Versuchen Sie, Partitionen in der Größe zu halten.
  • Haben alle die Validierung in der ETL-Schicht vor der Belastung. Deaktivieren Sie die Integritätsprüfung in den Zieldatenbanktabellen während der Belastung.
  • Disable löst in den Zieldatenbanktabellen während der Belastung. Simulieren ihre Wirkung in einem separaten Schritt.
  • Generieren-IDs in der ETL-Schicht.
  • Löschen Sie die Indizes vor der Last - und erstellen Sie sie nach der Belastung.
  • Verwenden Sie den parallelen Massenlast, wenn möglich, funktioniert gut, wenn die Tabelle partitioniert ist oder gibt es keine Indizes. Hinweis: Versuch, Parallellasten in dieselbe Tabelle zu tun verursacht in der Regel Schlösser, wenn nicht auf die Datenzeilen, dann auf Indizes.
  • Wenn eine Anforderung besteht, um Einfügungen, Aktualisierungen oder Löschungen zu tun, um herauszufinden, welche Zeilen in welcher Weise in der ETL-Schicht verarbeitet werden, und dann diese drei Operationen in der Datenbank zu verarbeiten getrennt. Sie können oft Großlast für Einsätze zu tun, aber Aktualisierungen und Löschungen üblicherweise über eine API zu gehen.

Ob bestimmte Operationen in der Datenbank zu tun oder draußen kann einen Kompromiss zu beteiligen. Zum Beispiel, Entfernen von Duplikaten mit deutlichen kann langsam in der Datenbank sein; so ist es sinnvoll, sie außerhalb zu tun. Auf der anderen Seite, wenn mit unterschiedlichen verringert signifikant die Anzahl der Zeilen extrahiert werden, dann macht es Sinn, um Doppelarbeit so früh wie möglich in der Datenbank vor dem Entladen von Daten zu entfernen.

Eine häufige Ursache von Problemen in ETL ist eine große Anzahl von Abhängigkeiten zwischen ETL-Jobs. So kann beispielsweise Job "B" nicht starten, während Job "A" nicht beendet ist. Man kann in der Regel eine bessere Performance durch die Visualisierung aller Prozesse in einem Diagramm, und zu versuchen, die Grafik die maximale Ausnutzung der Parallelität zu reduzieren und machen "Ketten" von aufeinanderfolgenden Verarbeitungs so kurz wie möglich. Auch hier kann Abschottung der großen Tischen und ihrer Indizes wirklich helfen.

Ein weiteres häufiges Problem tritt auf, wenn die Daten auf mehrere Datenbanken verteilt, und die Verarbeitung wird in diesen Datenbanken sequentiell durchgeführt. Manchmal Datenbankreplikation kann als ein Verfahren zum Kopieren von Daten zwischen Datenbanken einbezogen werden - und dies kann deutlich unter den gesamten Prozess zu verlangsamen. Die gemeinsame Lösung ist, um die Verarbeitung Diagramm, um nur drei Schichten zu reduzieren:

  • Quellen
  • Zentral ETL-Schicht
  • Ziele

Dies ermöglicht die Verarbeitung, um maximalen Nutzen der Parallelverarbeitung zu nehmen. Zum Beispiel, wenn Sie Daten in zwei Datenbanken geladen werden müssen, können die Lasten parallel laufen.

Manchmal muss die Verarbeitung sequentiell zu nehmen. So werden beispielsweise dreidimensionale Daten benötigt, bevor man zu erhalten und zu validieren die Zeilen für Haupt "Tatsache" Tabellen.

Parallelverarbeitung

Eine neuere Entwicklung in ETL-Software ist die Ausführung der Parallelverarbeitung. Dies hat eine Reihe von Methoden aktiviert werden, damit die Gesamtleistung des ETL-Prozesse zu verbessern, wenn es um große Datenmengen.

ETL-Anwendungen zu implementieren drei Haupttypen von Parallelität:

  • Daten: durch Teilen eines einzelnen sequentiellen Datei in kleinere Datendateien in parallelen Zugriff.
  • Pipeline: Zulassen des gleichzeitigen Betrieb mehrerer Komponenten auf dem gleichen Datenstrom. Zum Beispiel: ein Wert zu Protokoll 1 zur gleichen Zeit wie das Hinzufügen von zwei Feldern zu Protokoll 2.
  • Komponente: Der gleichzeitige Betrieb von mehreren Prozessen auf verschiedenen Datenströme im gleichen Job, zum Beispiel, das Sortieren eine Eingabedatei beim Entfernen Duplikate auf eine andere Datei.

Alle drei Arten von Parallelität arbeiten üblicherweise in einem einzigen Job zusammen.

Eine zusätzliche Schwierigkeit ist mit dafür sorgen, dass die Daten hochgeladen werden ist relativ konsistent. Da mehrere Source-Datenbanken können unterschiedliche Aktualisierungszyklen haben, kann ein ETL-System benötigt, um wieder bestimmte Daten zu halten, bis alle Quellen synchronisiert werden. Ebenso, wenn ein Lager kann sein, dass die Inhalte in einem Quellsystem oder mit dem Hauptbuch in Einklang gebracht werden, zur Schaffung Synchronisierung und Abgleich Punkte notwendig wird.

Rerunnability, Wiederherstellbarkeit

Data-Warehousing-Verfahren in der Regel zu unterteilen einen großen ETL-Prozess in kleinere Stücke laufen sequentiell oder parallel. Um den Überblick über Datenflüsse zu halten, ist es sinnvoll, jede Datenzeile mit "row_id" markieren, und markieren Sie jedes Stück des Prozesses mit "RUN_ID". Im Fehlerfall, mit diese IDs helfen, rückgängig und wiederholen Sie den ausgefallenen Stück.

Best practice fordert auch Kontrollpunkte, die Staaten sind, wenn bestimmte Phasen des Prozesses abgeschlossen sind. Sobald an einem Kontrollpunkt, ist es eine gute Idee, alles auf die Festplatte zu schreiben, Reinigen Sie einige temporäre Dateien, melden den Zustand, und so weiter.

Virtueller ETL

Ab 2010 Datenvirtualisierung begonnen hatten, ETL-Verarbeitung voraus. Die Anwendung der Datenvirtualisierung, um ETL erlaubt die Lösung der häufigsten ETL Aufgaben der Datenmigration und die Integration von Anwendungen für mehrere Datenquellen verteilt. Sogenannte Virtuelle ETL arbeitet mit dem abstrahierten Darstellung der Objekte oder Objekte aus der Vielzahl von relationalen, semi-strukturierten und unstrukturierten Datenquellen gesammelt. ETL-Tools können objektorientierte Modellierung nutzen und die Arbeit mit Organisationen "Darstellungen anhaltend in einem zentral gelegenen Hub-and-Spoke-Architektur gespeichert. Eine solche Sammlung, die Darstellungen der von den Datenquellen für die ETL-Verarbeitung gesammelt Entitäten oder Objekte enthält, wird als ein Metadaten-Repository, und es kann im Speicher befinden oder persistent gemacht werden. Durch die Verwendung eines anhaltenden Metadaten-Repository, können ETL-Tools aus einmaligen Projekten persistente Middleware-Übergang, Durchführen von Datenharmonisierung und Data Profiling konsequent und nahezu in Echtzeit.

Der Umgang mit Schlüsseln

Keys sind einige der wichtigsten Objekte in allen relationalen Datenbanken, wie sie alles zusammenbinden. Ein Primärschlüssel ist eine Spalte, die einen bestimmten Einheit, wenn ein Fremdschlüssel ist eine Spalte in einer anderen Tabelle, die einen Primärschlüssel bezieht sich identifiziert. Diese Tasten können auch aus mehreren Säulen, in welchem ​​Fall sie zusammengesetzten Schlüssel vorgenommen werden. In vielen Fällen ist die Primärschlüssel automatisch generiert ganze Zahl, die keine Bedeutung für die Betriebseinheit, die dargestellt ist, sondern einzig und allein besteht für die Zwecke der relationalen Datenbank - üblicherweise als Ersatz-Schlüssel bezeichnet.

Da es in der Regel mehr als eine Datenquelle, die in das Lager eingelegt, die Tasten ein wichtiges Anliegen, adressiert werden.
Ihre Kunden könnten in mehreren Datenquellen dargestellt werden, und in einer ihrer SSN könnte der Primärschlüssel, ihre Telefonnummer in einem anderen und ein Surrogat in der dritten sein. Alle Kunden Informationen müssen in einer Dimension Tabelle konsolidiert werden.

Eine empfohlene Weg, um mit dem Problem umzugehen ist, eine Lagerhalle Ersatzschlüssel, die als Fremdschlüssel aus der Faktentabelle verwendet wird, hinzuzufügen.

Normalerweise Updates auftreten, um ein Dimension Quelldaten, die muss natürlich in der Data Warehouse zum Ausdruck kommen.
Wenn der Primärschlüssel der Quelldaten für die Berichterstattung erforderlich ist, enthält die Dimension schon diese Information für jede Zeile. Wenn die Quelldaten einen Ersatzschlüssel verwendet, muss die Warehouse-Schiene von ihm, obwohl es nie in Abfragen oder Berichten verwendet zu halten.

Das wird durch die Schaffung einer Lookup-Tabelle, die die Lager Ersatzschlüssel und den Ursprung Schlüssel enthält getan. Auf diese Weise die Dimension nicht mit Surrogate aus verschiedenen Quellsystemen belastet, während die Fähigkeit, zu aktualisieren, erhalten bleibt.

Die Nachschlagetabelle wird auf verschiedene Weise je nach der Art der Ausgangsdaten verwendet wird. Es gibt 5 Arten zu prüfen, wo drei ausgewählten hier enthalten:
Typ 1:
- Die Dimension Zeile wird einfach aktualisiert, um den aktuellen Zustand des Quellsystems entsprechen. Das Lager nicht erfasst Geschichte. Die Lookup-Tabelle wird verwendet, um die Dimension Zeile zu aktualisieren oder zu überschreiben, zu identifizieren.
Typ 2:
- Eine neue Dimension Zeile wird mit dem neuen Zustand des Quellsystems aufgenommen. Ein neues Ersatzschlüssel zugeordnet ist. Quelle-Taste ist nicht mehr in der Nachschlagetabelle einzigartig.
Vollständig eingeloggt:
- Eine neue Dimension Zeile wird mit dem neuen Zustand des Quellsystems hinzugefügt, während die vorherige Dimension Zeile wird aktualisiert, um sie nicht mehr aktiv ist und der Rekordzeit von Deaktivierung.

Tools

Programmierer können bis ETL-Prozesse mit fast jeder Programmiersprache, sondern den Aufbau solcher Prozesse von Grund auf komplex werden kann. Immer mehr Unternehmen kaufen ETL-Tools, um bei der Erstellung von ETL-Prozesse helfen.

Durch die Verwendung eines etablierten ETL Rahmen kann man seine Chancen, am Ende mit eine bessere Konnektivität und Skalierbarkeit zu erhöhen. Eine gute ETL-Tool muss in der Lage, mit den vielen verschiedenen relationalen Datenbanken zu kommunizieren und lesen Sie die verschiedenen Dateiformaten in einer Organisation verwendet wird. ETL-Tools haben damit begonnen, in die Enterprise Application Integration oder auch Enterprise Service Bus, Systeme, decken jetzt viel mehr als nur die Extraktion, Transformation und Laden von Daten zu migrieren. Viele ETL-Anbieter haben jetzt Data Profiling, Datenqualität und Metadaten-Funktionen. Ein häufiges Anwendungsfall für ETL-Tools gehören die Umwandlung von CSV-Dateien in Formate lesbar relationalen Datenbanken. Ein typisches Übersetzung von Millionen von Datensätzen wird durch ETL-Tools, die Benutzer zur Eingabe csv-ähnliche Datenfeeds / Dateien aktivieren und importieren Sie sie in eine Datenbank mit so wenig Code wie möglich erleichtert.

ETL-Tools sind in der Regel durch eine breite Palette von Fachleuten verwendet - von Studenten in Informatik suchen, um große Datenmengen zu Datenbank-Architekten zuständig für Unternehmen-Account-Management schnell zu importieren, ETL-Tools haben ein praktisches Tool, das zuverlässig ist, um maximale Leistung zu erhalten sein werden . ETL Werkzeuge in den meisten Fällen enthalten eine GUI, die Benutzer Daten bequem zu transformieren, im Gegensatz zum Schreiben großer Programme zu parsen und Datentypen, die ETL-Tools ermöglichen, so viel wie möglich zu ändern können.

Kommerzielle Werkzeuge

Im Handel erhältliche ETL-Tools gehören:

  • Informatica Powercenter
  • IBM Datastage
  • Ab-initio-
  • Microstrategy
  • Oracle Data Integrator
  • Microsoft SQL Server Integration Services
  • Pentaho Kettle
  • Talend
(0)
(0)
Kommentare - 0
Keine Kommentare

Fügen Sie einen Kommentar

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Zeichen übrig: 3000
captcha