- AI Agents sind keine Chatbots - sie generieren, fuhren aus und validieren Geospatial-Code autonom in Sandbox-Umgebungen
- Erfolgsquote beim ersten Versuch: ca. 60 %. Die anderen 40 % erfordern iterative Verfeinerung (durchschnittlich 2,3 Iterationen bis zur bestandenen Validierung)
- Kosten pro Workflow-Migration: 0,50-2,00 $ in AI-Tokens. Zum Vergleich: 5.000-20.000 $ bei manueller Berater-Migration
- Das Dual-Agent-Muster (Builder + Auditor) erkennt 94 % der Fehler vor der menschlichen Prufung. Single-Agent-Ansatze erkennen nur 60 %
In Teil 1 haben wir argumentiert, dass AI Agents sich grundlegend von Chatbots unterscheiden. Dieser Beitrag liefert den Beweis: die tatsachliche Architektur, die tatsachliche Fehlerquote, die tatsachlichen Kosten und - am wichtigsten - wann AI Agents Ihre GIS-Workflows verschlechtern statt verbessern.
Falls Sie Teil 1 noch nicht gelesen haben, beginnen Sie dort fur den Kontext, warum generische LLMs bei GIS scheitern. Dieser Beitrag setzt voraus, dass Sie den Unterschied zwischen einem Chatbot, der Code vorschlagt, und einem Agent, der ihn ausfuhrt, verstehen.
Was AI Agents tatsachlich tun
Der Unterschied ist entscheidend, weil er bestimmt, was Sie realistisch erwarten konnen. Ein Chatbot ist ein Gesprachspartner. Ein Agent ist ein Mitarbeiter.

| Chatbot | AI Agent |
|---|---|
| Beantwortet Fragen zu GIS | Generiert GIS-Code |
| Schlagt Losungsansatze vor | Fuhrt Code in einer Sandbox aus |
| Erfordert menschliche Umsetzung | Validiert Output gegen Erwartungswerte |
| Zustandslos (jede Nachricht unabhangig) | Zustandsbehaftet (merkt sich Workflow-Kontext) |
| Generisch (kein Domainwissen) | Domainspezifisch (CRS, Topologie, Spatial Joins) |
Der entscheidende Unterschied: Ein AI Agent erklart Ihnen nicht, wie ein Spatial Join funktioniert. Er schreibt den Code, fuhrt ihn aus, pruft Geometrieanzahl und CRS im Output, erkennt den Fehler bei der falschen Projektion, schreibt den Code neu und fuhrt ihn erneut aus. Autonom.
Die Architektur
Dies ist die Pipeline, die wir gebaut haben. Kein Whiteboard-Entwurf - sie lauft in der Produktion. Jede Stufe hat eine spezifische Aufgabe und ein spezifisches AI-Modell, das fur diese Aufgabe ausgewahlt wurde.
PIPELINE-ARCHITEKTUR
Analysiert Workflow, erstellt SmartDAG (Abhangigkeitsgraph). Identifiziert Inputs, Outputs, Transformationen, Entscheidungspunkte.
Generiert Open-Source-aquivalenten Code. Verwendet GeoPandas, rasterio, Shapely, pyproj.
Fuhrt generierten Code in isolierter Umgebung aus. Erfasst Output-Daten, Ausfuhrungszeit, Speicherverbrauch, Fehler.
Vergleicht Quell- vs. generierten Output. Pruft Geometrieanzahl, CRS, Attributschema, raumliche Genauigkeit.
Drei Architekturentscheidungen bestimmen die Zuverlassigkeit dieser Pipeline.
Zwei verschiedene AI-Modelle
Builder verwendet GPT-OSS-120B (optimiert fur Code-Generierung). Auditor verwendet Gemini 3 Pro. Ein anderes Modell erkennt Fehler, die das Builder-Modell systematisch macht. Die Prufung durch dasselbe Modell hat blinde Flecken.
Sandbox-Ausfuhrung
Code lauft in einer E2B-Sandbox, nicht auf dem Rechner des Benutzers. Isoliert, reproduzierbar, sicher. Ein Warmstart von 0,2 Sekunden macht die Iteration schnell genug fur den praktischen Einsatz.
LangGraph-Orchestrierung
Zustandsbehaftete Orchestrierung mit konditionalen Kanten. Lehnt der Auditor ab, fliessen die Ausfuhrung und das spezifische Feedback zuruck zum Builder. Diese Feedback-Schleife ist mit einfachem Prompt-Chaining schwer aufzubauen.

Das Dual-Agent-Muster
Dies ist die Erkenntnis, die alles verandert hat. Zwei Agents - einer baut, einer pruft - ubertreffen einen einzelnen Agent, der beides tut, deutlich.
| Kennzahl | Single Agent | Dual Agent |
|---|---|---|
| Genauigkeit beim ersten Versuch | 55-60 % | 60-65 % |
| Genauigkeit nach Verfeinerung | 70-75 % | 94 %+ |
| Erkannte CRS-Fehler | 40 % | 95 % |
| Erkannte fehlende Edge Cases | 30 % | 85 % |
| Durchschnittliche Iterationen bis Abnahme | 3,8 | 2,3 |
Die Verbesserung nach der Verfeinerung zeigt, wo das Dual-Agent-Muster wirklich uberzeugt. Ein einzelner Agent, der seinen eigenen Code pruft, hat dieselben blinden Flecken, die die Fehler verursacht haben. Der Auditor - der ein anderes Modell mit anderen Trainingsdaten nutzt - erkennt, was der Builder nicht sehen kann.
Warum es funktioniert: Der Auditor markiert nicht nur Fehler. Er liefert spezifisches, umsetzbares Feedback: "Output enthalt 15.247 Geometrien, Quelle hat 15.312. 65 Geometrien gingen im Dissolve-Schritt verloren. Pruefen Sie, wie NULL-Gruppenwerte behandelt werden." Dieses gezielte Feedback sorgt dafur, dass der Builder beim nachsten Versuch das Richtige behebt und nicht ratselt.
Sandbox-Ausfuhrung
Code zu generieren ist der einfache Teil. Der schwierige Teil ist zu wissen, ob er korrekten Output erzeugt. Dazu muss er tatsachlich ausgefuhrt werden.
E2B-Sandbox - 0,2-Sekunden-Warmstart. Vollstandige Python-Umgebung mit vorinstalliertem GeoPandas, rasterio, GDAL.
Vollstandige Isolation - Kein Zugriff auf Kundendaten, Netzwerk oder Dateisystem ausserhalb der Sandbox. Jede Iteration erhalt eine frische Umgebung.
Echte Validierung - Nicht "sieht der Code richtig aus", sondern "erzeugt er korrekten Output." Geometrieanzahl, CRS, Schema, raumliche Genauigkeit - alles gegen die Quelle verifiziert.
Folgendes validiert der Auditor nach jedem Sandbox-Lauf:
def validate_output(source_output, generated_output):
checks = {
"geometry_count": len(source_output) == len(generated_output),
"crs_match": source_output.crs == generated_output.crs,
"schema_match": set(source_output.columns) == set(
generated_output.columns
),
"spatial_accuracy": source_output.geometry.equals(
generated_output.geometry
),
"attribute_accuracy": source_output.drop(
columns="geometry"
).equals(
generated_output.drop(columns="geometry")
),
}
return checksJede Prufung ist binar. Entweder der Output stimmt mit der Quelle uberein oder nicht. In der Geoprocessing gibt es kein "nah genug" - ein falsches CRS kann Features um Tausende von Kilometern verschieben.
Fehlerquellen - ehrlich
Rund 40 % der Workflows bestehen den ersten Versuch nicht. Hier zeigen wir, wo sie scheitern und warum. Diese Zahlen stammen aus Produktionslaeufen, nicht aus Benchmarks.
CRS-VERWECHSLUNG
Der Agent generiert Code unter der Annahme EPSG:4326, obwohl die Quelldaten in einem projizierten CRS vorliegen. Der Auditor erkennt dies durch den Vergleich von Output-Extents, was jedoch eine zusatzliche Iteration erfordert.
TOPOLOGIE-KOLLAPS
Dissolve-Operationen, die ungultige Geometrien erzeugen - Selbstuberschneidungen, Locher. Die Losung ist immer buffer(0) oder make_valid(), aber der Agent fugt dies nicht immer praventiv hinzu.
ATTRIBUTVERLUST BEI JOINS
Spatial Joins, die Attribute durch Spaltennamen-Kollisionen verlieren. Der Agent behandelt lsuffix/rsuffix nicht immer korrekt.
SPEICHER-UBERLAUF BEI GROSSEN DATENSATZEN
Generierter Code, der gesamte Datensatze in den Speicher ladt. Die Losung ist Chunked Processing, aber dies erfordert das Verstandnis der Datenmenge - die der Agent nicht immer vorab kennt.
DATUMS-/ZEITBEHANDLUNG BEI EDGE CASES
Zeitzonenbewusste vs. naive Datetimes, Datumsformat-Inkonsistenzen zwischen Quellsystemen. Ein dauerhaftes Problem in jeder Datenpipeline.
ECHTE FEHLER
Manche Workflows sind zu komplex, zu schlecht dokumentiert oder zu stark von proprietarer ESRI-Logik abhangig, als dass AI Agents sie migrieren konnten. Diese erfordern menschliches Fachwissen. Wir sind ehrlich daruber.
DAS EHRLICHE BILD
6 % der Workflows konnen mit den aktuellen AI-Fahigkeiten nicht automatisiert werden. Diese Zahl wird kleiner, wenn sich die Modelle verbessern, aber sie wird nie null erreichen. Proprietare Spatial-Algorithmen, undokumentierte Geschaftslogik und Edge Cases in Legacy-Datenformaten werden immer menschliches Fachwissen erfordern.
Echte Kosten
Jeder behauptet, AI spare Geld. Hier sind die tatsachlichen Zahlen - einschliesslich der Kosten, die die meisten Anbieter bequem weglassen.
KOSTEN PRO WORKFLOW-MIGRATION
DIE KOSTEN, DIE NIEMAND ERWAHNT
Die 0,55-2,10 $ sind die AI-Kosten. Darin nicht enthalten ist die Menschenzeit fur die Vorbereitung der Inputs (Workflows hochladen, Kontext bereitstellen) oder die menschliche Prufung der Outputs. Kalkulieren Sie 15-30 Minuten Menschenzeit pro Workflow ein. Zum Berater-Stundensatz von 150 $ sind das 37,50-75 $ pro Workflow. Immer noch mehr als 99 % gunstiger als die vollstandig manuelle Migration - aber so zu tun, als ware der menschliche Aufwand null, ware unehrlich.
Wann AI Agents die Dinge verschlechtern
Dies ist der Abschnitt, den die meisten AI-Anbieter komplett uberspringen. Es gibt echte Szenarien, in denen AI Agents das falsche Werkzeug sind. Sie trotzdem einzusetzen verschwendet Zeit und Geld.
Einfache Einmal-Aufgaben
Wenn Sie einmalig eine Buffer-Operation ausfuhren mussen, dauert das Offnen von QGIS 30 Sekunden. Eine AI-Agent-Pipeline einzurichten dauert 5 Minuten. Schiessen Sie nicht mit Kanonen auf Spatzen.
Stark regulierte Workflows mit Prufpfaden
In manchen Branchen - Kernkraft, Verteidigung - benotigt jede Code-Zeile eine menschliche Freigabe. KI-generierter Code erzeugt einen Prufaufwand, der die Zeitersparnis ubersteigen kann. Allein die Komplexitat des Prufpfads kann die Effizienzgewinne zunichte machen.
Workflows mit undokumentiertem Erfahrungswissen
Wenn der Workflow eines Analysten davon abhangt, dass er "einfach weiss, dass dieser Schritt vor jenem kommen muss, weil die Daten dienstags so reinkommen", wird der AI Agent dies verpassen. Implizites Wissen muss zuerst von Menschen erfasst werden.
Wenn das Ziel Verstehen und nicht Output ist
Nachwuchsanalysten, die GIS lernen, sollten ihren eigenen Code schreiben. AI Agents einzusetzen, um den Lernprozess zu uberspringen, erzeugt gefahrliche Wissensluecken. Wer die Analyse nicht versteht, kann sie nicht validieren.
Sicherheitskritische Echtzeitoperationen
Notfallmanagement, Echtzeit-Asset-Tracking, sicherheitskritisches Infrastruktur-Monitoring. AI Agents sollen menschliche Entscheidungsfindung unterstuetzen, niemals ersetzen, wenn Menschenleben oder kritische Anlagen auf dem Spiel stehen.
Wenn Ihre Datenqualitat schlecht ist
AI Agents verstarken Datenqualitätsprobleme. Schlechte Eingaben, selbstsicher generierter schlechter Output. Wenn Ihre Quelldaten inkonsistente Schemas, fehlende CRS-Definitionen oder korrupte Geometrien aufweisen, beheben Sie zuerst die Daten. Einen kaputten Input zu automatisieren produziert nur schneller kaputten Output.
Was das fur GIS-Teams bedeutet
AI Agents ersetzen keine GIS-Analysten. Sie ersetzen die repetitiven Teile ihrer Arbeit. Diese Unterscheidung ist entscheidend, da sie bestimmt, wie Sie die Einfuhrung planen.
DIE ANALYSTEN-ROLLE WANDELT SICH
Von "die Analyse durchfuhren" zu "die Analyse konzipieren und den Output validieren." Das Kompetenzprofil entwickelt sich von der Werkzeugbedienung zur Workflow-Architektur. Analysten werden zu Prufern und Designern, nicht mehr zu Klick-Ausfuhrern.
DER KAPAZITATS-MULTIPLIKATOR
Teams, die AI Agents einsetzen, konnen das 10-50-fache an Workflows bewaltigen - ohne proportionale Neueinstellungen. Das erfordert jedoch Investitionen in das Verstandnis, was AI kann und was nicht - deshalb gibt es Beitrage wie diesen.
Der Ubergang erfolgt nicht sofort. Planen Sie 2-4 Wochen ein, um zu identifizieren, welche Workflows Automatisierungskandidaten sind, weitere 2-4 Wochen fur die Validierung des ersten Batches und danach fortlaufende Verfeinerung. Teams, die die Bewertungsphase uberspringen und versuchen, alles auf einmal zu automatisieren, verschwenden unweigerlich Zeit mit Workflows, die manuell bleiben sollten.
Fur das Business-Case hinter der Automatisierung von GIS-Workflows, einschliesslich Kostenmodellen und ROI-Zeitrahmen, lesen Sie unseren Workflow-Automatisierungsleitfaden. Fur die Open-Source-Bibliotheken, die unsere Agents fur die Code-Generierung nutzen, lesen Sie den ArcPy-zu-GeoPandas-Migrationsleitfaden.
AI Agents fur GIS sind real, nutzlich und unvollkommen. Die 94 % Genauigkeit nach der Verfeinerung ist hervorragend - aber die 6 %, die wirklich scheitern, zahlen ebenfalls.
Die Architektur funktioniert, weil sie KI-generiertem Code mit gesunder Skepsis begegnet. Jeder Output wird in einer Sandbox ausgefuhrt, gegen die Quelle validiert und verfeinert, bis er die Prufung besteht oder fur die menschliche Prufung markiert wird. Kein blindes Vertrauen. Kein Handwedeln bei der Genauigkeit.
Die ehrliche Antwort lautet: AI Agents ubernehmen die 80 % der GIS-Arbeit, die repetitiv, klar definiert und automatisierbar sind. Die anderen 20 % benotigen weiterhin erfahrene Analysten. Die Frage ist, ob Ihr Team seine Zeit mit den richtigen 20 % verbringt.
Haufig gestellte Fragen
Wie genau sind AI Agents bei der Automatisierung von GIS-Workflows?
Die Erfolgsquote beim ersten Versuch liegt bei ca. 60 %. Mit dem Dual-Agent-Muster (Builder + Auditor) und iterativer Verfeinerung erreicht die Genauigkeit bis zur dritten Iteration 94 %+. Entscheidend ist die Sandbox-Ausfuhrung mit echten Validierungen - der Code wird tatsachlich ausgefuhrt und der Output verglichen, nicht nur die Syntax gepruft.
Was kostet die KI-gestutzte GIS-Workflow-Migration?
Die AI-Token-Kosten belaufen sich auf 0,50-2,00 $ pro Workflow-Migration, die Sandbox-Ausfuhrung kommt mit ca. 0,01 $ hinzu. Einschliesslich der menschlichen Prufzeit (15-30 Minuten zu Beraterkonditionen) liegen die Gesamtkosten bei 40-77 $ pro Workflow. Zum Vergleich: Eine vollstandig manuelle Berater-Migration kostet 5.000-20.000 $. Die Kostenreduktion von 99 %+ ist real - aber nur wenn alle Kosten ehrlich einbezogen werden.
Wann sollten AI Agents NICHT fur die GIS-Automatisierung eingesetzt werden?
AI Agents sind ungeeignet fur einfache Einmal-Aufgaben (QGIS ist schneller), stark regulierte Workflows mit zeilenweisen Prufpfaden, Workflows, die von undokumentiertem Erfahrungswissen abhangen, Lernszenarien, in denen Nachwuchsanalysten Fahigkeiten aufbauen sollen, sicherheitskritische Echtzeitoperationen sowie Situationen, in denen die zugrunde liegende Datenqualitat schlecht ist. Beheben Sie Datenqualitätsprobleme vor dem Automatisierungsversuch.
Workflow-Automatisierung Einblicke erhalten
Monatliche Tipps zur Automatisierung von GIS-Workflows, Open-Source-Tools und Erkenntnisse aus Enterprise-Deployments. Kein Spam.
