ZURUCK ZUM INDEXTEIL 2 VON 3
AI Agents fur GIS

Jenseits des Hypes: Echte Architektur, echte Fehler

Wir haben AI Agents gebaut, die GIS-Workflows automatisieren. Hier ist, was tatsachlich funktioniert, was in 40 % der Falle fehlschlagt und wann Sie stattdessen auf Menschen setzen sollten.

VEROFFENTLICHTFEB 2026
SERIEAI AGENTS (2/3)
AUTORAXIS SPATIAL TEAM
Sumi-e-Tuschemalerei, die AI Agents bei der autonomen Orchestrierung komplexer Geospatial-Workflows darstellt
  • AI Agents sind keine Chatbots - sie generieren, fuhren aus und validieren Geospatial-Code autonom in Sandbox-Umgebungen
  • Erfolgsquote beim ersten Versuch: ca. 60 %. Die anderen 40 % erfordern iterative Verfeinerung (durchschnittlich 2,3 Iterationen bis zur bestandenen Validierung)
  • Kosten pro Workflow-Migration: 0,50-2,00 $ in AI-Tokens. Zum Vergleich: 5.000-20.000 $ bei manueller Berater-Migration
  • Das Dual-Agent-Muster (Builder + Auditor) erkennt 94 % der Fehler vor der menschlichen Prufung. Single-Agent-Ansatze erkennen nur 60 %

In Teil 1 haben wir argumentiert, dass AI Agents sich grundlegend von Chatbots unterscheiden. Dieser Beitrag liefert den Beweis: die tatsachliche Architektur, die tatsachliche Fehlerquote, die tatsachlichen Kosten und - am wichtigsten - wann AI Agents Ihre GIS-Workflows verschlechtern statt verbessern.

Falls Sie Teil 1 noch nicht gelesen haben, beginnen Sie dort fur den Kontext, warum generische LLMs bei GIS scheitern. Dieser Beitrag setzt voraus, dass Sie den Unterschied zwischen einem Chatbot, der Code vorschlagt, und einem Agent, der ihn ausfuhrt, verstehen.

Was AI Agents tatsachlich tun

Der Unterschied ist entscheidend, weil er bestimmt, was Sie realistisch erwarten konnen. Ein Chatbot ist ein Gesprachspartner. Ein Agent ist ein Mitarbeiter.

Sumi-e-Illustration der automatisierten Workflow-Transformation von manueller zu agentbasierter Verarbeitung
ChatbotAI Agent
Beantwortet Fragen zu GISGeneriert GIS-Code
Schlagt Losungsansatze vorFuhrt Code in einer Sandbox aus
Erfordert menschliche UmsetzungValidiert Output gegen Erwartungswerte
Zustandslos (jede Nachricht unabhangig)Zustandsbehaftet (merkt sich Workflow-Kontext)
Generisch (kein Domainwissen)Domainspezifisch (CRS, Topologie, Spatial Joins)

Der entscheidende Unterschied: Ein AI Agent erklart Ihnen nicht, wie ein Spatial Join funktioniert. Er schreibt den Code, fuhrt ihn aus, pruft Geometrieanzahl und CRS im Output, erkennt den Fehler bei der falschen Projektion, schreibt den Code neu und fuhrt ihn erneut aus. Autonom.

Die Architektur

Dies ist die Pipeline, die wir gebaut haben. Kein Whiteboard-Entwurf - sie lauft in der Produktion. Jede Stufe hat eine spezifische Aufgabe und ein spezifisches AI-Modell, das fur diese Aufgabe ausgewahlt wurde.

PIPELINE-ARCHITEKTUR

Benutzer ladt Workflow hoch (ArcPy-Skripte, Modelldateien, Datenbeispiele)
Planner Agent

Analysiert Workflow, erstellt SmartDAG (Abhangigkeitsgraph). Identifiziert Inputs, Outputs, Transformationen, Entscheidungspunkte.

Builder AgentGPT-OSS-120B

Generiert Open-Source-aquivalenten Code. Verwendet GeoPandas, rasterio, Shapely, pyproj.

Sandbox-AusfuhrungE2B (0,2s warm)

Fuhrt generierten Code in isolierter Umgebung aus. Erfasst Output-Daten, Ausfuhrungszeit, Speicherverbrauch, Fehler.

Auditor AgentGemini 3 Pro

Vergleicht Quell- vs. generierten Output. Pruft Geometrieanzahl, CRS, Attributschema, raumliche Genauigkeit.

Bei Abweichungen: zuruck zum Builder mit spezifischem Feedback. 60 % bestehen beim ersten Versuch. 94 % bis Iteration 3.
Documentation Agent generiert Deployment-Configs, README, Test-Suite

Drei Architekturentscheidungen bestimmen die Zuverlassigkeit dieser Pipeline.

1

Zwei verschiedene AI-Modelle

Builder verwendet GPT-OSS-120B (optimiert fur Code-Generierung). Auditor verwendet Gemini 3 Pro. Ein anderes Modell erkennt Fehler, die das Builder-Modell systematisch macht. Die Prufung durch dasselbe Modell hat blinde Flecken.

2

Sandbox-Ausfuhrung

Code lauft in einer E2B-Sandbox, nicht auf dem Rechner des Benutzers. Isoliert, reproduzierbar, sicher. Ein Warmstart von 0,2 Sekunden macht die Iteration schnell genug fur den praktischen Einsatz.

3

LangGraph-Orchestrierung

Zustandsbehaftete Orchestrierung mit konditionalen Kanten. Lehnt der Auditor ab, fliessen die Ausfuhrung und das spezifische Feedback zuruck zum Builder. Diese Feedback-Schleife ist mit einfachem Prompt-Chaining schwer aufzubauen.

Axis Spatial AI-Agents-Pipeline, die den Ablauf vom Workflow-Upload uber Planung, Aufbau, Sandbox-Ausfuhrung, Prufung bis zur Dokumentation zeigt

Das Dual-Agent-Muster

Dies ist die Erkenntnis, die alles verandert hat. Zwei Agents - einer baut, einer pruft - ubertreffen einen einzelnen Agent, der beides tut, deutlich.

KennzahlSingle AgentDual Agent
Genauigkeit beim ersten Versuch55-60 %60-65 %
Genauigkeit nach Verfeinerung70-75 %94 %+
Erkannte CRS-Fehler40 %95 %
Erkannte fehlende Edge Cases30 %85 %
Durchschnittliche Iterationen bis Abnahme3,82,3

Die Verbesserung nach der Verfeinerung zeigt, wo das Dual-Agent-Muster wirklich uberzeugt. Ein einzelner Agent, der seinen eigenen Code pruft, hat dieselben blinden Flecken, die die Fehler verursacht haben. Der Auditor - der ein anderes Modell mit anderen Trainingsdaten nutzt - erkennt, was der Builder nicht sehen kann.

Warum es funktioniert: Der Auditor markiert nicht nur Fehler. Er liefert spezifisches, umsetzbares Feedback: "Output enthalt 15.247 Geometrien, Quelle hat 15.312. 65 Geometrien gingen im Dissolve-Schritt verloren. Pruefen Sie, wie NULL-Gruppenwerte behandelt werden." Dieses gezielte Feedback sorgt dafur, dass der Builder beim nachsten Versuch das Richtige behebt und nicht ratselt.

Sandbox-Ausfuhrung

Code zu generieren ist der einfache Teil. Der schwierige Teil ist zu wissen, ob er korrekten Output erzeugt. Dazu muss er tatsachlich ausgefuhrt werden.

E2B-Sandbox - 0,2-Sekunden-Warmstart. Vollstandige Python-Umgebung mit vorinstalliertem GeoPandas, rasterio, GDAL.

Vollstandige Isolation - Kein Zugriff auf Kundendaten, Netzwerk oder Dateisystem ausserhalb der Sandbox. Jede Iteration erhalt eine frische Umgebung.

Echte Validierung - Nicht "sieht der Code richtig aus", sondern "erzeugt er korrekten Output." Geometrieanzahl, CRS, Schema, raumliche Genauigkeit - alles gegen die Quelle verifiziert.

Folgendes validiert der Auditor nach jedem Sandbox-Lauf:

Pythonauditor_validation.py
def validate_output(source_output, generated_output):
    checks = {
        "geometry_count": len(source_output) == len(generated_output),
        "crs_match": source_output.crs == generated_output.crs,
        "schema_match": set(source_output.columns) == set(
            generated_output.columns
        ),
        "spatial_accuracy": source_output.geometry.equals(
            generated_output.geometry
        ),
        "attribute_accuracy": source_output.drop(
            columns="geometry"
        ).equals(
            generated_output.drop(columns="geometry")
        ),
    }
    return checks

Jede Prufung ist binar. Entweder der Output stimmt mit der Quelle uberein oder nicht. In der Geoprocessing gibt es kein "nah genug" - ein falsches CRS kann Features um Tausende von Kilometern verschieben.

Fehlerquellen - ehrlich

Rund 40 % der Workflows bestehen den ersten Versuch nicht. Hier zeigen wir, wo sie scheitern und warum. Diese Zahlen stammen aus Produktionslaeufen, nicht aus Benchmarks.

CRS-VERWECHSLUNG

Der Agent generiert Code unter der Annahme EPSG:4326, obwohl die Quelldaten in einem projizierten CRS vorliegen. Der Auditor erkennt dies durch den Vergleich von Output-Extents, was jedoch eine zusatzliche Iteration erfordert.

25 %

TOPOLOGIE-KOLLAPS

Dissolve-Operationen, die ungultige Geometrien erzeugen - Selbstuberschneidungen, Locher. Die Losung ist immer buffer(0) oder make_valid(), aber der Agent fugt dies nicht immer praventiv hinzu.

15 %

ATTRIBUTVERLUST BEI JOINS

Spatial Joins, die Attribute durch Spaltennamen-Kollisionen verlieren. Der Agent behandelt lsuffix/rsuffix nicht immer korrekt.

12 %

SPEICHER-UBERLAUF BEI GROSSEN DATENSATZEN

Generierter Code, der gesamte Datensatze in den Speicher ladt. Die Losung ist Chunked Processing, aber dies erfordert das Verstandnis der Datenmenge - die der Agent nicht immer vorab kennt.

8 %

DATUMS-/ZEITBEHANDLUNG BEI EDGE CASES

Zeitzonenbewusste vs. naive Datetimes, Datumsformat-Inkonsistenzen zwischen Quellsystemen. Ein dauerhaftes Problem in jeder Datenpipeline.

5 %

ECHTE FEHLER

Manche Workflows sind zu komplex, zu schlecht dokumentiert oder zu stark von proprietarer ESRI-Logik abhangig, als dass AI Agents sie migrieren konnten. Diese erfordern menschliches Fachwissen. Wir sind ehrlich daruber.

6 %

DAS EHRLICHE BILD

6 % der Workflows konnen mit den aktuellen AI-Fahigkeiten nicht automatisiert werden. Diese Zahl wird kleiner, wenn sich die Modelle verbessern, aber sie wird nie null erreichen. Proprietare Spatial-Algorithmen, undokumentierte Geschaftslogik und Edge Cases in Legacy-Datenformaten werden immer menschliches Fachwissen erfordern.

Echte Kosten

Jeder behauptet, AI spare Geld. Hier sind die tatsachlichen Zahlen - einschliesslich der Kosten, die die meisten Anbieter bequem weglassen.

KOSTEN PRO WORKFLOW-MIGRATION

AI-Tokens pro Workflow (Durchschnitt)0,50 $ - 2,00 $
Sandbox-Ausfuhrung pro Iteration0,003 $
Durchschnittliche Iterationen pro Workflow2,3
Gesamte AI-Kosten pro Workflow0,55 $ - 2,10 $
Manuelle Beraterkosten (aquivalent)5.000 $ - 20.000 $
99,5 %Kostenreduktion (nur AI-Tokens)

DIE KOSTEN, DIE NIEMAND ERWAHNT

Die 0,55-2,10 $ sind die AI-Kosten. Darin nicht enthalten ist die Menschenzeit fur die Vorbereitung der Inputs (Workflows hochladen, Kontext bereitstellen) oder die menschliche Prufung der Outputs. Kalkulieren Sie 15-30 Minuten Menschenzeit pro Workflow ein. Zum Berater-Stundensatz von 150 $ sind das 37,50-75 $ pro Workflow. Immer noch mehr als 99 % gunstiger als die vollstandig manuelle Migration - aber so zu tun, als ware der menschliche Aufwand null, ware unehrlich.

Wann AI Agents die Dinge verschlechtern

Dies ist der Abschnitt, den die meisten AI-Anbieter komplett uberspringen. Es gibt echte Szenarien, in denen AI Agents das falsche Werkzeug sind. Sie trotzdem einzusetzen verschwendet Zeit und Geld.

Einfache Einmal-Aufgaben

Wenn Sie einmalig eine Buffer-Operation ausfuhren mussen, dauert das Offnen von QGIS 30 Sekunden. Eine AI-Agent-Pipeline einzurichten dauert 5 Minuten. Schiessen Sie nicht mit Kanonen auf Spatzen.

Stark regulierte Workflows mit Prufpfaden

In manchen Branchen - Kernkraft, Verteidigung - benotigt jede Code-Zeile eine menschliche Freigabe. KI-generierter Code erzeugt einen Prufaufwand, der die Zeitersparnis ubersteigen kann. Allein die Komplexitat des Prufpfads kann die Effizienzgewinne zunichte machen.

Workflows mit undokumentiertem Erfahrungswissen

Wenn der Workflow eines Analysten davon abhangt, dass er "einfach weiss, dass dieser Schritt vor jenem kommen muss, weil die Daten dienstags so reinkommen", wird der AI Agent dies verpassen. Implizites Wissen muss zuerst von Menschen erfasst werden.

Wenn das Ziel Verstehen und nicht Output ist

Nachwuchsanalysten, die GIS lernen, sollten ihren eigenen Code schreiben. AI Agents einzusetzen, um den Lernprozess zu uberspringen, erzeugt gefahrliche Wissensluecken. Wer die Analyse nicht versteht, kann sie nicht validieren.

Sicherheitskritische Echtzeitoperationen

Notfallmanagement, Echtzeit-Asset-Tracking, sicherheitskritisches Infrastruktur-Monitoring. AI Agents sollen menschliche Entscheidungsfindung unterstuetzen, niemals ersetzen, wenn Menschenleben oder kritische Anlagen auf dem Spiel stehen.

Wenn Ihre Datenqualitat schlecht ist

AI Agents verstarken Datenqualitätsprobleme. Schlechte Eingaben, selbstsicher generierter schlechter Output. Wenn Ihre Quelldaten inkonsistente Schemas, fehlende CRS-Definitionen oder korrupte Geometrien aufweisen, beheben Sie zuerst die Daten. Einen kaputten Input zu automatisieren produziert nur schneller kaputten Output.

Was das fur GIS-Teams bedeutet

AI Agents ersetzen keine GIS-Analysten. Sie ersetzen die repetitiven Teile ihrer Arbeit. Diese Unterscheidung ist entscheidend, da sie bestimmt, wie Sie die Einfuhrung planen.

DIE ANALYSTEN-ROLLE WANDELT SICH

Von "die Analyse durchfuhren" zu "die Analyse konzipieren und den Output validieren." Das Kompetenzprofil entwickelt sich von der Werkzeugbedienung zur Workflow-Architektur. Analysten werden zu Prufern und Designern, nicht mehr zu Klick-Ausfuhrern.

DER KAPAZITATS-MULTIPLIKATOR

Teams, die AI Agents einsetzen, konnen das 10-50-fache an Workflows bewaltigen - ohne proportionale Neueinstellungen. Das erfordert jedoch Investitionen in das Verstandnis, was AI kann und was nicht - deshalb gibt es Beitrage wie diesen.

Der Ubergang erfolgt nicht sofort. Planen Sie 2-4 Wochen ein, um zu identifizieren, welche Workflows Automatisierungskandidaten sind, weitere 2-4 Wochen fur die Validierung des ersten Batches und danach fortlaufende Verfeinerung. Teams, die die Bewertungsphase uberspringen und versuchen, alles auf einmal zu automatisieren, verschwenden unweigerlich Zeit mit Workflows, die manuell bleiben sollten.

Fur das Business-Case hinter der Automatisierung von GIS-Workflows, einschliesslich Kostenmodellen und ROI-Zeitrahmen, lesen Sie unseren Workflow-Automatisierungsleitfaden. Fur die Open-Source-Bibliotheken, die unsere Agents fur die Code-Generierung nutzen, lesen Sie den ArcPy-zu-GeoPandas-Migrationsleitfaden.

AI Agents fur GIS sind real, nutzlich und unvollkommen. Die 94 % Genauigkeit nach der Verfeinerung ist hervorragend - aber die 6 %, die wirklich scheitern, zahlen ebenfalls.

Die Architektur funktioniert, weil sie KI-generiertem Code mit gesunder Skepsis begegnet. Jeder Output wird in einer Sandbox ausgefuhrt, gegen die Quelle validiert und verfeinert, bis er die Prufung besteht oder fur die menschliche Prufung markiert wird. Kein blindes Vertrauen. Kein Handwedeln bei der Genauigkeit.

Die ehrliche Antwort lautet: AI Agents ubernehmen die 80 % der GIS-Arbeit, die repetitiv, klar definiert und automatisierbar sind. Die anderen 20 % benotigen weiterhin erfahrene Analysten. Die Frage ist, ob Ihr Team seine Zeit mit den richtigen 20 % verbringt.

Haufig gestellte Fragen

Wie genau sind AI Agents bei der Automatisierung von GIS-Workflows?

Die Erfolgsquote beim ersten Versuch liegt bei ca. 60 %. Mit dem Dual-Agent-Muster (Builder + Auditor) und iterativer Verfeinerung erreicht die Genauigkeit bis zur dritten Iteration 94 %+. Entscheidend ist die Sandbox-Ausfuhrung mit echten Validierungen - der Code wird tatsachlich ausgefuhrt und der Output verglichen, nicht nur die Syntax gepruft.

Was kostet die KI-gestutzte GIS-Workflow-Migration?

Die AI-Token-Kosten belaufen sich auf 0,50-2,00 $ pro Workflow-Migration, die Sandbox-Ausfuhrung kommt mit ca. 0,01 $ hinzu. Einschliesslich der menschlichen Prufzeit (15-30 Minuten zu Beraterkonditionen) liegen die Gesamtkosten bei 40-77 $ pro Workflow. Zum Vergleich: Eine vollstandig manuelle Berater-Migration kostet 5.000-20.000 $. Die Kostenreduktion von 99 %+ ist real - aber nur wenn alle Kosten ehrlich einbezogen werden.

Wann sollten AI Agents NICHT fur die GIS-Automatisierung eingesetzt werden?

AI Agents sind ungeeignet fur einfache Einmal-Aufgaben (QGIS ist schneller), stark regulierte Workflows mit zeilenweisen Prufpfaden, Workflows, die von undokumentiertem Erfahrungswissen abhangen, Lernszenarien, in denen Nachwuchsanalysten Fahigkeiten aufbauen sollen, sicherheitskritische Echtzeitoperationen sowie Situationen, in denen die zugrunde liegende Datenqualitat schlecht ist. Beheben Sie Datenqualitätsprobleme vor dem Automatisierungsversuch.

Workflow-Automatisierung Einblicke erhalten

Monatliche Tipps zur Automatisierung von GIS-Workflows, Open-Source-Tools und Erkenntnisse aus Enterprise-Deployments. Kein Spam.

NACHSTER SCHRITT

Herausfinden, welche Workflows automatisierungsbereit sind

Nicht jeder Workflow sollte automatisiert werden. Unsere kostenlose Bewertung identifiziert, welche von AI Agents profitieren und welche einen anderen Ansatz benotigen.