Verantwortung
Disruptive Technologien wie Transformer-basiere Sprachmodelle erweitern nicht nur unser Spektrum an
Möglichkeiten für die Entwicklung beeindruckender Produkte, sondern sie übertragen auch eine eindeutige
Verantwortung für die Prozesse und Systeme, die darauf aufbauen.
Ökologische Auswirkungen
Der sogenannte Rebound-Effekt beschreibt das Phänomen, dass Effizienzsteigerungen nur selten zu einer
absoluten Einsparung führen. Durch eine zunehmende Nutzung werden vorhandene Einsparungspotenziale
kompensiert oder überkompensiert.
Leistungsfähigere Algorithmen sind oft erheblich effizienter, erschließen aber zugleich neue
Einsatzgebiete, für die zusätzliche Kapazitäten geschaffen werden. Die großen Sprachmodelle vereinfachen
viele Abläufe so stark, dass wir in Versuchung geraten, sie auch dort einzusetzen, wo sie gar nicht
erforderlich sind.
Das im Mai 2025 veröffentlichte Paper
Comparative Analysis of Carbon Footprint in Manual vs. LLM-Assisted Code
Development
kommt zu der Erkenntnis, dass eine mit Hilfe von LLM unterstützte Software-Entwicklung im Durchschnitt
einen 32-fach höheren CO2-Fußabdruck im Vergleich zu einer manuellen Entwicklung erzeugt, um die gleiche
Ergebnisqualität zu erzielen.
Gleichsam kommt die 2023 von GitHub publizierte Studie
The Impact of AI on Developer Productivity: Evidence from GitHub Copilot
zu dem Schluss, dass die Produktivität der Entwickler bei der Verwendung von LLM-basierten
Entwicklungs-Werkzeugen um 55% steigt.
Sollten wir also Vibe Coding fördern oder besser darauf verzichten? Einzelne Fakten können dies nicht
abschließend beantworten, machen uns jedoch der ökologischen und wirtschaftlichen Implikationen bewusst.
Die Nutzung von Sprachmodellen sollte entsprechend gezielt erfolgen.
Schon bemerkt? Die AIDIGY Website verzichtet bewusst auf den Einsatz bestimmter Technologien oder
Dienste und ist hochgradig optimiert – der CO2-Fußabdruck minimal.
Bias – Ethische und politische Implikationen
Gen AI reproduziert, was es gelernt hat. Sind beispielsweise für bestimmte Themen nur wenige Quellen
verfügbar und das Material ist sehr positiv oder negativ konnotiert, werden die damit trainierten
Modelle auch nur solche Inhalte wiedergeben können.
Generative Modelle sind prädestiniert zukünftige Filterblasen zu erzeugen. Zugleich sind sie das wohl
stärkste technische Mittel um geistiger Isolierung und ideologischer Radikalisierung entgegenzuwirken.
Die psychologische Wirkungskraft auf den Einzelnen ebenso wie die gesellschaftliche Bedeutung von KI im
Allgemeinen ist nicht zu unterschätzen.
Interagieren Kunden oder Mitarbeiter mit generativer KI, ist es erforderlich entsprechend zu
sensibilisieren. Ist dies nicht möglich, müssen technische oder organisatorische Maßnahmen ergriffen
werden.
Wir tragen eine inhaltliche Verantwortung für Anwendungen, die Künstliche Intelligenz einsetzen und sind
verpflichtet, die Erzeugnisse auf Korrektheit wie auch auf Neutralität zu prüfen.