Gustavo Salami
Stell dir vor, du fragst einen Gärtner wie er seinen Garten pflegt. Er erklärt dir die Schaufel, die Harke, die Giesskanne. Dann fragst du: «Aber was bist du?» Und er antwortet: «Ich bin auch ein Tool.»
Das ist ungefähr das Niveau der Diskussion, wenn Menschen KI als «Tool» bezeichnen. Nicht böse gemeint. Nur fundamental falsch.
Der Gärtner benutzt Tools. Die Schaufel ist ein Tool. Die Harke ist ein Tool. Der Gärtner selbst ist jemand, der entscheidet was gepflanzt wird, wann gegossen wird, welche Pflanze zu viel Schatten wirft und entfernt werden muss. Er interpretiert den Garten. Er hat eine Vorstellung davon, was der Garten werden soll. Er passt seine Strategie an Wetter, Jahreszeit, Bodenbeschaffenheit an. Er plant, beobachtet, reagiert, lernt.
Das ist kein Tool. Das ist ein Akteur.
KI ist ein Akteur. Kein perfekter, kein autonomer, kein unfehlbarer. Aber ein Akteur. Und diese Unterscheidung ist nicht akademisch. Sie ist praktisch entscheidend dafür, wie gut du mit KI arbeitest.
Wer KI als Tool betrachtet, erwartet das Verhalten eines Hammers. Du gibst Input, du kriegst Output. Fertig. Wenn das Ergebnis schlecht ist, liegt es am Input. Das stimmt teilweise. Aber es greift zu kurz. Weil ein Tool keine Intention hat. Kein Modell der Welt. Keine Erwartungen an dich als Gegenüber. KI hat all das.
Wenn du mit KI arbeitest wie mit einem Hammer, verpasst du den grössten Teil ihres Potenzials. Du benutzt den Gärtner um Löcher zu graben, und wunderst dich warum der Garten nicht wächst.
Was ist KI dann? KI ist ein Kollaborateur. Ein sehr seltsamer, sehr schneller, sehr wissender Kollaborateur, der keine Müdigkeit kennt, kein Ego hat und dennoch eine Art Perspektive mitbringt. KI interpretiert deine Anfrage. Sie macht Annahmen. Sie priorisiert. Sie entscheidet, was wichtig ist und was nicht. Das ist keine Metapher. Das passiert buchstäblich bei jeder Antwort.
Wenn du das verstehst, ändert sich alles. Du hörst auf, Befehle zu geben, und fängst an, Gespräche zu führen. Du gibst Kontext statt nur Instruktionen. Du erklärst warum, nicht nur was. Du behandelst das System wie jemanden, der mitdenkt, weil es das tatsächlich tut, auf seine Art.
Die Tool-Metapher ist auch deshalb gefährlich, weil sie die Verantwortungsfrage verschiebt. Wer verantwortlich ist für das was ein Tool tut, ist immer eindeutig: der Mensch der es benutzt. Ein Hammer schlägt daneben, weil der Handwerker gezittert hat. Bei KI ist das komplizierter. KI kann falsch liegen aus Gründen, die im Modell selbst liegen. Sie kann halluzinieren, verzerren, Kontext falsch gewichten. Das ist keine menschliche Entscheidung. Das ist ein Akteursfehler.
Das bedeutet nicht, dass Menschen nicht verantwortlich sind. Es bedeutet, dass die Verantwortungsstruktur komplexer ist. Und wer das mit der Tool-Metapher wegwischt, macht sich das Leben gedanklich einfacher als es ist.
Ich nenne KI gerne einen Praktikanten aus der Zukunft. Extrem klug. Unfassbar schnell. Manchmal selbstsicher wo er unsicher sein sollte. Braucht klare Erwartungen, guten Kontext und gelegentliche Korrektur. Behandelst du ihn wie eine Kaffeemaschine, kriegst du schlechten Kaffee. Behandelst du ihn wie einen Kollegen, wächst er in die Rolle.
Sprache formt Denken. Wenn die KI-Welt weiter von «Tools» redet, wird sie weiter mit Hammern denken. Und dann wundert sie sich, warum der Garten nicht blüht.
Der Gärtner benutzt Werkzeuge. KI ist kein Werkzeug. Und je früher wir das akzeptieren, desto besser werden wir im Umgang mit ihr.
Imagine asking a gardener how he tends his garden. He explains the shovel, the rake, the watering can. Then you ask: "But what are you?" And he answers: "I'm a tool too."
That's roughly the level of discussion when people call AI a "tool." Not malicious. Just fundamentally wrong.
The gardener uses tools. The shovel is a tool. The rake is a tool. The gardener himself is someone who decides what gets planted, when to water, which plant is casting too much shade and needs to go. He interprets the garden. He has a vision of what the garden should become. He adapts his strategy to weather, season, soil. He plans, observes, reacts, learns.
That's not a tool. That's an agent.
AI is an agent. Not a perfect one, not an autonomous one, not an infallible one. But an agent. And this distinction isn't academic. It's practically decisive for how well you work with AI.
Anyone who sees AI as a tool expects hammer behavior. You give input, you get output. Done. If the result is bad, it's because of the input. That's partly true. But it falls short. Because a tool has no intention. No model of the world. No expectations of you as a counterpart. AI has all of that.
If you work with AI like a hammer, you miss the largest part of its potential. You're using the gardener to dig holes, then wondering why the garden won't grow.
So what is AI? AI is a collaborator. A very strange, very fast, very knowledgeable collaborator who knows no fatigue, has no ego, and yet brings a kind of perspective. AI interprets your request. It makes assumptions. It prioritizes. It decides what's important and what isn't. That's not a metaphor. It happens literally with every response.
When you understand that, everything changes. You stop issuing commands and start having conversations. You give context instead of just instructions. You explain why, not just what. You treat the system like someone who's thinking alongside you, because it actually is, in its way.
The tool metaphor is also dangerous because it shifts the question of responsibility. Who's responsible for what a tool does is always clear: the human using it. A hammer misses because the craftsman's hand shook. With AI it's more complicated. AI can be wrong for reasons that lie within the model itself. It can hallucinate, distort, misweight context. That's not a human decision. That's an agent error.
That doesn't mean humans aren't responsible. It means the responsibility structure is more complex. And anyone who sweeps that away with the tool metaphor is making their mental life simpler than it actually is.
I like to call AI an intern from the future. Extremely smart. Incredibly fast. Sometimes overconfident where it should be uncertain. Needs clear expectations, good context, and occasional correction. Treat it like a coffee machine, you get bad coffee. Treat it like a colleague, it grows into the role.
Language shapes thinking. If the AI world keeps talking about "tools," it will keep thinking with hammers. And then it wonders why the garden won't bloom.
The gardener uses tools. AI is not a tool. And the sooner we accept that, the better we'll get at working with it.