Gustavo Salami
Shit in, shit out. Das Prinzip kennen wir alle. Es stammt aus einer Zeit, in der Computer Befehle ausfΓΌhrten. Exakt, deterministisch, fehlerlos im Rahmen ihrer Instruktionen, aber vollstΓ€ndig blind fΓΌr alles was nicht explizit eingegeben wurde.
Ich habe Claude ein Shit-Emoji geschickt. Nichts weiter. Und was zurΓΌckgekommen ist, war ein ausformulierter Post der klingt, als hΓ€tte jemand meine Gedanken gelesen. Richtiger Ton, richtiges Thema, richtige LΓ€nge.
Wie geht das? Weil das System mich kennt. Memory, vergangene GesprΓ€che, Kontext aus hunderten Interaktionen. Die KI braucht keinen perfekten Prompt. Sie braucht nur ein Signal. Den Rest zieht sie aus allem, was sie ΓΌber mich weiss. Und das wird jede Woche besser.
Vor einem Jahr brauchte ich zehn Zeilen Prompt fΓΌr ein brauchbares Ergebnis. Heute reicht ein Emoji. Nicht nur weil die Modelle schlauer geworden sind. Sondern weil der Kontext gewachsen ist.
Das verschiebt die Frage fundamental. Nicht mehr: Wie gut ist dein Prompt? Sondern: Wie tief ist der Kontext, in dem dein System arbeitet?
"Shit in, shit out" ist das falscheste Prinzip, das wir aus der alten Software-Welt in die neue mitgeschleppt haben. KI ist kein Compiler. Sie interpretiert. Sie ergΓ€nzt. Sie baut auf was du nie eingegeben hast.
Wer heute noch glaubt, Output sei eine direkte Funktion von Input-QualitΓ€t, denkt in der falschen Abstraktion. Der entscheidende Hebel ist Kontext. Nicht der Prompt.
Shit in. Gold out. Der Unterschied ist Kontext.
Garbage in, garbage out. We all know the principle. It comes from an era when computers executed commands. Exact, deterministic, flawless within their instructions, but completely blind to anything not explicitly provided.
I sent Claude a poop emoji. Nothing else. And what came back was a fully written post that sounds like someone read my mind. Right tone, right topic, right length.
How? Because the system knows me. Memory, past conversations, context from hundreds of interactions. The AI doesn't need a perfect prompt. It just needs a signal. It fills in the rest from everything it knows about me. And it gets better every week.
A year ago I needed ten lines of prompt to get something usable. Today, one emoji is enough. Not just because the models got smarter. But because the context has grown.
That fundamentally shifts the question. No longer: how good is your prompt? But: how deep is the context your system is working in?
"Garbage in, garbage out" is the worst principle we dragged from the old software world into the new one. AI is not a compiler. It interprets. It fills gaps. It builds on what you never even typed.
Anyone who still believes output is a direct function of input quality is thinking in the wrong abstraction. The decisive lever is context. Not the prompt.
Shit in. Gold out. The difference is context.