Mentoring-Programm 2026 - Wissen weitergeben, Zukunft gestalten

Zu unserem 20-jährigen Firmenjubiläum starten wir Anfang 2026 ein Mentoring-Programm für Berufseinsteiger im Bereich Datenbanken. In einer Zeit, in der die Lage auf dem Arbeitsmarkt unsicher und oft widersprüchlich erscheint, möchten wir Orientierung bieten. Wir begleiten sie persönlich, praxisnah und mit echtem Know-how-Transfer.

Der Einstieg in die Welt der Datenbanken und der Verarbeitung von Datenströmen ist komplex: Technologien entwickeln sich rasant, Anforderungen steigen stetig und viele Unternehmen kämpfen gleichzeitig mit der Modernisierung ihrer IT-Landschaft. Noch immer werden zahlreiche kritische Legacy-Systeme betrieben, die – auch bedingt durch demografische Veränderungen, Transformationsprozesse und zunehmenden Kostendruck - dringend erneuert werden müssten.

Unser Mentoring-Programm setzt genau hier an: Wir fördern junge Talente, vermitteln praxisrelevantes Wissen und schaffen die Basis, um die technologische Zukunft aktiv mitzugestalten.

16. IT-Kongress Neu-Ulm | Ulm

Am 13.11.2025 sind wir als Aussteller auf dem IT-Kongress an der Hochschule Neu-Ulm vertreten. Der IT-Kongress steht unter dem Motto „KI, Cybersecurity & Co. Smarte Lösungen für eine sichere Zukunft“.

Das Programm des IT-Kongresses sowie die Möglichkeit zur Anmeldung finden Sie unter folgendem Link: https://www.it-kongress.com/index.php/programmundanmeldung-2025/

Als IT-Dienstleister mit Schwerpunkt Datenbanken unterstützen wir Unternehmen in allen Phasen ihrer Projekte - von der Konzeption über Implementierung, Automatisierung und Monitoring bis hin zu Schulung und Know-how-Transfer. IT-Sicherheit ist für uns von Beginn an integraler Bestandteil: Security by Design und die Erfüllung regulatorischer Anforderungen gehören zu unserem Standard. Mit unserer tiefgreifenden Datenbank-Expertise schlagen wir die Brücke zwischen klassischer Datenarchitektur und modernen KI-Anwendungen - etwa beim Einsatz von Vektordatenbanken für RAG-Systeme oder der Echtzeitverarbeitung von Datenströmen mittels Machine Learning.

Wir freuen uns auf spannende Gespräche mit Ihnen!

20 Jahre Innovation, IT-Kompetenz und Zukunftsblick -Unser Firmenjubiläum

In diesem Jahr feiern wir ein besonderes Ereignis, unser 20-jähriges Firmenjubiläum - zwei Jahrzehnte voller technologischer Entwicklungen, spannender Kundenprojekte und kontinuierlicher Innovation. Was 2005 mit einer klaren Vision begann, ist heute ein etabliertes IT-Unternehmen mit tiefgreifender Expertise in der Entwicklung, Optimierung und Sicherung von IT-Systemen.

Rückblick: Von der Idee zur etablierten IT-Kompetenz

Unsere Reise begann mit der Überzeugung, dass Daten weit mehr sind als Zahlen in Tabellen - sie sind der Schlüssel zu fundierten Entscheidungen, effizienteren Prozessen und nachhaltigem Unternehmenserfolg. Daher stehen Datenbanken im Zentrum unserer Dienstleistungen. Von Architektur-Konzepten, Automatisierung und Monitoring zu Training und Know-How-Aufbau bei den Mitarbeitern unserer Kunden. So erfüllen wir den Anspruch, mit unseren Kunden tragfähige, sichere und zukunftsweisende Lösungen zu schaffen.

Heute: Von KI und IT-Sicherheit

In den letzten Jahren hat sich die IT-Welt rasant gewandelt. Künstliche Intelligenz (KI) ist dabei, ganze Branchen zu transformieren - und das Fundament dieser Entwicklung sind leistungsfähige, strukturierte und saubere Daten. Unsere Erfahrung im Datenbank-Bereich bildet die passende Brücke zwischen klassischen Datenarchitekturen und modernen KI-Anwendungen.

Wir begleiten Unternehmen bei der Frage: Wie machen wir unsere Daten KI-ready? Ob durch strukturierte Datenpipelines, semantische Modellierung oder durch die Integration moderner KI-Dienste in bestehende Datenbankumgebungen - wir gestalten aktiv mit.

In einer Ära zunehmender Cyberangriffe und wachsender regulatorischer Anforderungen ist es zudem unerlässlich, Daten nicht nur intelligent, sondern auch sicher zu verarbeiten. Hierbei unterstützen wir unsere Kunden mit dem passenden Know-How, bei der Realisierung ihrer IT-Systeme, nach dem Security-by-Design Prinzip.

Blick nach vorn: Gemeinsam in die Zukunft

20 Jahre sind ein Meilenstein - aber längst kein Endpunkt. Unser Anspruch bleibt: Daten in Wissen verwandeln, Systeme sicher halten und unsere Kunden in der digitalen Transformation unterstützen. Dabei werden wir weiterhin auf technologischen Fortschritt, partnerschaftliche Zusammenarbeit und verantwortungsvolle IT-Lösungen setzen.

Wir danken all unseren Kunden, Partnern und Wegbegleitern für das entgegengebrachte Vertrauen. Ohne Euch wäre diese Reise nicht möglich gewesen!

Auf die nächsten 20 Jahre - mit Herz, Hirn und Hightech...

Ansible Teil 2 - Facts und Jinja2 Filter

Im ersten Teil der kleinen Ansible Serie ging es um die Installation von RPM Paketen für die Oracle Software. Der nächste Schritt wäre nun der Aufbau einer Datenbank mit dem Database Configuration Assistant (DBCA) der Firma Oracle. Es macht aber Sinn, vorab zum besseren Verständnis die Punkte Ansible Facts und Jinja2 Filter zu behandeln.

In unserem Demo-Beispiel soll es später die Möglichkeit geben, die Hauptspeicher-Grösse der Datenbank-Instanz in Megabyte als Variable zu definieren. Ist kein Wert explizit gesetzt, soll als Default-Wert 50% des verfügbaren Hauptspeichers genutzt werden. Für die praktische Umsetzung gibt es in Ansible Standard-Facts die automatisch vom Zielsystem ermittelt werden. In unserem Fall das Fact ansible_memtotal_mb das wir als Grundlage für eigene Berechnungen nutzen könnten:

- name: calculate totalMemory parameter for dbca
  debug:
    msg: "{{ oracle_memory | default((ansible_memtotal_mb / 2) | round | int) }}"

Zusätzlich möchten wir den DBCA später nur starten, wenn auf dem Zielsystem noch keine entsprechende Datenbank vorhanden ist. Ein Indikator für diese Erkennung ist der Inhalt der Datei /etc/oratab. In diesem Fall ist die Verarbeitung etwas aufwendiger, zunächst könnten wir den Inhalt von /etc/oratab in Ansible verfügbar machen:

- name: Slurp /etc/oratab
  ansible.builtin.slurp:
    src: /etc/oratab
  register: slurped_etc_oratab

Aus diesem Inhalt können wir dann mit Jinja2 Filtern eine Liste der ORACLE_SIDs herausfiltern:

- name: Extract list of Oracle SIDs from slurped /etc/oratab
  ansible.builtin.set_fact:
    oracle_sids: "{{ slurped_etc_oratab.content | 
                     ansible.builtin.b64decode | 
                     ansible.builtin.regex_findall('^((?!#).+):.*:.*$', multiline=True) }}"

Die so ermittelten ORACLE_SIDs könnten wir für Debug-Zwecke in einer Schleife ausgeben lassen:

- name: Iterate over list of Oracle SIDs and display them
  ansible.builtin.debug:
    msg: "{{ item }}"
  loop: "{{ oracle_sids }}"

Um zu verhindern, dass der DBCA gestartet wird, wenn die gewünschte ORACLE_SID schon in der /etc/oratab vorhanden ist, könnten wir den späteren Task mit folgender when-Bedingung versehen:

- name: Only execute if given SID is not in extracted Oracle SID list
  ansible.builtin.debug:
    msg: "Database {{ oracle_sid }} is not in list..."
  when: oracle_sid not in oracle_sids

Ansible Teil 1 - YUM und RPM-Pakete

In einem der letzten Blog-Posts hatte ich gezeigt, wie mit wenigen Schritten ein Yum-Repository für RPM-Pakete auf einem NAS angelegt werden kann. Nun soll es darum gehen, diese Pakete auf einem System mit Rocky Linux 9 via Ansible automatisiert zu installieren.

Einer der Grundbaustein von Ansible sind die Tasks in denen definiert wird, was auf einem System automatisiert werden soll. Glück für uns, für die Konfiguration von Yum-Repositories und die Installation von RPM-Paketen gibt es schon fertige Standard-Module.

Hier ein Beispiel für die YUM-Repository Konfiguration und die Installation der Oracle 23ai Free Edition:

- name: "Handle local YUM Repository"
  ansible.builtin.yum_repository:
    name: "local-yum-repo"
    baseurl: "{{ yum_repo_url }}"
    file: "local_yum_repo"
    description: "Local YUM Repo on NAS"
    enabled: yes
    gpgcheck: no
    proxy: "_none_"
    state: "present"

- name: Install Oracle RPM Packages for 23ai
  ansible.builtin.dnf:
    name: 
      - oracle-database-preinstall-23ai
      - oracle-database-free-23ai
    state: installed

In weiteren Blog-Posts werde ich zeigen, wie sich im Anschluss eine Oracle Datenbank erstellen lässt und welche weiteren Bausteine für eine Ansible Automatisierung notwendig sind.