Verantwortung

Disruptive Technologien wie Transformer-basiere Sprachmodelle erweitern nicht nur unser Spektrum an Möglichkeiten für die Entwicklung beeindruckender Produkte, sondern sie übertragen auch eine eindeutige Verantwortung für die Prozesse und Systeme, die darauf aufbauen.

Ökologische Auswirkungen

Der sogenannte Rebound-Effekt beschreibt das Phänomen, dass Effizienzsteigerungen nur selten zu einer absoluten Einsparung führen. Durch eine zunehmende Nutzung werden vorhandene Einsparungspotenziale kompensiert oder überkompensiert.

Leistungsfähigere Algorithmen sind oft erheblich effizienter, erschließen aber zugleich neue Einsatzgebiete, für die zusätzliche Kapazitäten geschaffen werden. Die großen Sprachmodelle vereinfachen viele Abläufe so stark, dass wir in Versuchung geraten, sie auch dort einzusetzen, wo sie gar nicht erforderlich sind.

Das im Mai 2025 veröffentlichte Paper Comparative Analysis of Carbon Footprint in Manual vs. LLM-Assisted Code Development kommt zu der Erkenntnis, dass eine mit Hilfe von LLM unterstützte Software-Entwicklung im Durchschnitt einen 32-fach höheren CO2-Fußabdruck im Vergleich zu einer manuellen Entwicklung erzeugt, um die gleiche Ergebnisqualität zu erzielen.

Gleichsam kommt die 2023 von GitHub publizierte Studie The Impact of AI on Developer Productivity: Evidence from GitHub Copilot zu dem Schluss, dass die Produktivität der Entwickler bei der Verwendung von LLM-basierten Entwicklungs-Werkzeugen um 55% steigt.

Sollten wir also Vibe Coding fördern oder besser darauf verzichten? Einzelne Fakten können dies nicht abschließend beantworten, machen uns jedoch der ökologischen und wirtschaftlichen Implikationen bewusst.

Die Nutzung von Sprachmodellen sollte entsprechend gezielt erfolgen.

Schon bemerkt? Die AIDIGY Website verzichtet bewusst auf den Einsatz bestimmter Technologien oder Dienste und ist hochgradig optimiert – der CO2-Fußabdruck minimal.

Bias – Ethische und politische Implikationen

Gen AI reproduziert, was es gelernt hat. Sind beispielsweise für bestimmte Themen nur wenige Quellen verfügbar und das Material ist sehr positiv oder negativ konnotiert, werden die damit trainierten Modelle auch nur solche Inhalte wiedergeben können.

Generative Modelle sind prädestiniert zukünftige Filterblasen zu erzeugen. Zugleich sind sie das wohl stärkste technische Mittel um geistiger Isolierung und ideologischer Radikalisierung entgegenzuwirken. Die psychologische Wirkungskraft auf den Einzelnen ebenso wie die gesellschaftliche Bedeutung von KI im Allgemeinen ist nicht zu unterschätzen.

Interagieren Kunden oder Mitarbeiter mit generativer KI, ist es erforderlich entsprechend zu sensibilisieren. Ist dies nicht möglich, müssen technische oder organisatorische Maßnahmen ergriffen werden.

Wir tragen eine inhaltliche Verantwortung für Anwendungen, die Künstliche Intelligenz einsetzen und sind verpflichtet, die Erzeugnisse auf Korrektheit wie auch auf Neutralität zu prüfen.