So führen Sie Stable Diffusion aus: Ein praktischer Leitfaden von Nina Torres
Hallo, ich bin Nina Torres und ich bewerte Werkzeuge – alle Arten davon. Heute sprechen wir über Stable Diffusion, einen leistungsstarken KI-Bilderzeuger. Wenn Sie neugierig waren, Ihre eigene KI-Kunst zu erstellen, aber sich von der technischen Terminologie eingeschüchtert fühlten, sind Sie hier genau richtig. Dieser Leitfaden zeigt Ihnen Schritt für Schritt, wie Sie Stable Diffusion ausführen, mit praktischem, umsetzbarem Rat. Kein Geschwurbel, nur Ergebnisse.
Stable Diffusion ermöglicht es Ihnen, beeindruckende Bilder aus Textaufforderungen zu generieren. Es ist ein fantastisches Werkzeug für Künstler, Designer, Inhaltscreator oder jeden, der mit KI experimentieren möchte. Auch wenn es anfangs komplex erscheinen mag, macht die Zerlegung es sehr überschaubar. Lassen Sie uns damit beginnen, wie man Stable Diffusion ausführt.
Stable Diffusion verstehen: Was Sie wissen müssen
Bevor wir das „Wie“ erkunden, lassen Sie uns kurz erklären, was Stable Diffusion ist. Es handelt sich um ein Open-Source-Modell, das eine Textbeschreibung (Ihre „Aufforderung“) nimmt und ein Bild basierend auf dieser Beschreibung generiert. Es dient nicht nur dazu, Bilder von Grund auf neu zu erstellen; Sie können es auch verwenden, um vorhandene Bilder zu modifizieren, zu erweitern, zu übermalen und mehr.
Der Kern von Stable Diffusion ist die Fähigkeit, ein Bild zu „enträuschern“. Es beginnt mit zufälligem Rauschen und verfeinert es schrittweise, bis es Ihrer Aufforderung entspricht. Dieser Prozess ist überraschend effizient, sobald Sie die richtige Einrichtung haben.
Wählen Sie Ihre Methode: Lokal vs. Cloud
Die erste große Entscheidung, wenn man lernt, wie man Stable Diffusion ausführt, ist, wo Sie es ausführen: lokal auf Ihrem eigenen Computer oder in der Cloud. Beides hat Vor- und Nachteile.
Stable Diffusion lokal ausführen
**Vorteile:**
* Vollständige Kontrolle über Ihre Modelle und Einstellungen.
* Keine wiederkehrenden Abonnementgebühren (nach der anfänglichen Hardwarekosten).
* Schnellere Generierungszeiten, wenn Sie leistungsfähige Hardware haben.
* Datenschutz – Ihre Daten bleiben auf Ihrem Rechner.
**Nachteile:**
* Erfordert eine leistungsstarke Grafikkarte (GPU) mit ausreichendem VRAM.
* Die anfängliche Einrichtung kann umfangreicher sein.
* Nutzt die Ressourcen Ihres Computers.
**Was Sie für die lokale Installation benötigen:**
* **Eine starke GPU:** NVIDIA-Grafikkarten werden aufgrund der CUDA-Unterstützung im Allgemeinen bevorzugt. Streben Sie mindestens 8 GB VRAM an, 12 GB oder mehr werden jedoch für einen reibungsloseren Betrieb und größere Bildgeneration dringend empfohlen. AMD-GPUs können funktionieren, die Einrichtung könnte aber etwas komplexer sein.
* **Genug RAM:** 16 GB Systemspeicher sind ein guter Ausgangswert.
* **Speicherplatz:** Mindestens 50 GB für die Installation, Modelle und generierte Bilder.
* **Betriebssystem:** Windows, macOS (mit Apple Silicon) oder Linux.
Stable Diffusion in der Cloud ausführen
**Vorteile:**
* Keine Notwendigkeit für teure Hardware.
* Schnelle Einrichtung; oft genügt ein paar Klicks.
* Zugriff auf leistungsstarke GPUs, ohne sie besitzen zu müssen.
* Kann kosteneffektiv für gelegentliche Nutzung sein.
**Nachteile:**
* Wiederkehrende Kosten (stundenweise oder Abonnement).
* Datenschutzbedenken (obwohl renommierte Dienste sicher sind).
* Latenz kann ein Faktor sein.
* Weniger Kontrolle über die zugrunde liegende Umgebung.
**Beliebte Cloud-Optionen:**
* **Google Colab:** Bietet kostenlose Stufen (mit Einschränkungen) und kostenpflichtige Optionen für leistungsstärkere GPUs. Ausgezeichnet für Experimente.
* **RunPod, Vast.ai, Paperspace:** Diese Dienste bieten GPU-Instanzen nach Bedarf, oft zu wettbewerbsfähigen Stundensätzen.
* **Dedizierte KI-Kunst-Websites (z.B. NightCafe, DreamStudio):** Benutzerfreundliche Schnittstellen, aber weniger Kontrolle über das rohe Stable Diffusion-Modell. Gut für Anfänger, die die technische Einrichtung überspringen möchten.
In diesem Leitfaden darüber, wie man Stable Diffusion ausführt, konzentrieren wir uns hauptsächlich auf die lokale Installation mit der Web-UI von Automatic1111, die die beliebteste und vielseitigste Methode ist. Wir werden auch kurz auf Cloud-Optionen eingehen.
Lokale Installation: Automatic1111 Web-UI
Dies ist die häufigste und empfohlene Möglichkeit, Stable Diffusion lokal auszuführen. Die Web-UI von Automatic1111 für Stable Diffusion bietet eine benutzerfreundliche Oberfläche, mit der Sie alle Aspekte der Bilderzeugung steuern können, ohne Code schreiben zu müssen.
Schritt 1: Installationsvoraussetzungen
Sie müssen einige Dinge auf Ihrem Computer installieren, bevor Sie Stable Diffusion ausführen können.
1. **Python:**
* Laden Sie Python 3.10.6 von der offiziellen Python-Website herunter (wichtig: verwenden Sie diese spezifische Version für die Kompatibilität).
* Stellen Sie während der Installation sicher, dass Sie **„Add Python to PATH“** auswählen. Das ist entscheidend.
* Installieren Sie es.
2. **Git:**
* Laden Sie Git von der offiziellen Git-Website herunter.
* Installieren Sie es mit den Standardeinstellungen. Git wird verwendet, um die Web-UI-Dateien von GitHub abzurufen.
3. **CUDA (nur NVIDIA-GPUs):**
* Wenn Sie eine NVIDIA-GPU haben, stellen Sie sicher, dass Ihre Treiber auf dem neuesten Stand sind. Sie können die neuesten Treiber von der NVIDIA-Website herunterladen.
* CUDA wird normalerweise mit Ihren NVIDIA-Treibern installiert, aber wenn Sie auf Probleme stoßen, müssen Sie möglicherweise das CUDA-Toolkit separat installieren. Für Stable Diffusion benötigen Sie normalerweise nicht das gesamte Toolkit, da PyTorch die notwendigen Komponenten verwaltet.
Schritt 2: Laden Sie die Stable Diffusion Web-UI herunter
1. Wählen Sie einen Speicherort auf Ihrer Festplatte, an dem Sie Stable Diffusion installieren möchten (z.B. `C:\StableDiffusion`). Erstellen Sie dort einen neuen Ordner.
2. Öffnen Sie die Eingabeaufforderung (Windows: suchen Sie nach „cmd“) oder das Terminal (macOS/Linux).
3. Navigieren Sie zu dem Ordner, den Sie gerade erstellt haben, mit dem Befehl `cd`. Zum Beispiel: `cd C:\StableDiffusion`
4. Sobald Sie sich im Ordner befinden, führen Sie den folgenden Befehl aus, um das Web-UI-Repository zu klonen:
“`bash
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
“`
Dies wird alle notwendigen Dateien in einen neuen Unterordner namens `stable-diffusion-webui` herunterladen.
Schritt 3: Laden Sie einen Stable Diffusion Modell-Checkpoint herunter
Die Web-UI ist nur die Oberfläche; Sie benötigen ein „Modell“, das tatsächlich die Bilder generiert. Dies sind große Dateien, typischerweise mehrere Gigabyte.
1. Gehen Sie zu Hugging Face, speziell zum Repository für Stable Diffusion-Modelle (z.B. `runwayml/stable-diffusion-v1-5`).
2. Suchen Sie die Datei `v1-5-pruned-emaonly.safetensors` (oder ähnlich, je nach der gewünschten Modellversion). Das ist ein häufiger und ausgezeichneter Ausgangspunkt.
3. Laden Sie diese Datei herunter.
4. Legen Sie die heruntergeladene Modellsdatei in den Ordner `stable-diffusion-webui\models\Stable-diffusion`, den Sie zuvor erstellt haben.
Sie können auch andere „Checkpoints“ oder „feinabgestimmte Modelle“ von Webseiten wie Civitai herunterladen. Diese Modelle sind oft auf bestimmte Stile oder Themen trainiert und können fantastische Ergebnisse liefern. Stellen Sie sicher, dass Sie sie immer im Ordner `models\Stable-diffusion` ablegen.
Schritt 4: Starten Sie die Web-UI zum ersten Mal
1. Navigieren Sie in den Ordner `stable-diffusion-webui`, den Sie geklont haben.
2. Suchen Sie die Datei mit dem Namen `webui-user.bat` (Windows) oder `webui.sh` (macOS/Linux).
3. **Windows:** Klicken Sie mit der rechten Maustaste auf `webui-user.bat` und wählen Sie „Bearbeiten.“
* Fügen Sie `git pull` in einer neuen Zeile vor der Zeile `call webui.bat` hinzu. Das stellt sicher, dass Ihre Web-UI immer auf dem neuesten Stand ist.
* Optional, wenn Sie eine GPU mit weniger VRAM (z.B. 8 GB) haben, können Sie `set COMMANDLINE_ARGS=–xformers –autolaunch –medvram` (oder `–lowvram`, falls benötigt) unter `set PYTHON=` hinzufügen. Xformers hilft, den VRAM-Verbrauch zu reduzieren und die Generierung zu beschleunigen. `–autolaunch` öffnet den Browser automatisch.
* Speichern Sie die Datei.
4. **macOS/Linux:** Öffnen Sie `webui.sh` in einem Texteditor und fügen Sie `git pull` an den Anfang hinzu. Sie möchten möglicherweise auch `–xformers` zur Zeile `COMMANDLINE_ARGS` hinzufügen, falls diese existiert, oder erstellen Sie eine.
5. Doppelklicken Sie auf `webui-user.bat` (Windows) oder führen Sie `sh webui.sh` in Ihrem Terminal aus (macOS/Linux).
Beim ersten Mal werden das Skript alle notwendigen Python-Abhängigkeiten (wie PyTorch, Transformers usw.) herunterladen und installieren. Dies kann eine Weile dauern, abhängig von Ihrer Internetverbindung. Es könnte so aussehen, als ob nichts passiert, aber seien Sie einfach geduldig.
Sobald alles installiert ist, wird das Skript die Web-UI starten. Sie sehen eine lokale URL in Ihrer Eingabeaufforderung/Ihrem Terminal, normalerweise `http://127.0.0.1:7860`. Das Argument `–autolaunch` (wenn Sie es hinzugefügt haben) öffnet dies automatisch in Ihrem Standard-Webbrowser. Glückwunsch! Sie wissen jetzt, wie man Stable Diffusion lokal ausführt!
Die Nutzung der Automatic1111 Web-UI
Jetzt, da Sie die Web-UI laufen haben, schauen wir uns ihre grundlegenden Funktionen an.
Der Text2Image-Tab
Hier werden Sie die meiste Zeit verbringen.
* **Stable Diffusion Checkpoint:** Stellen Sie sicher, dass Ihr heruntergeladenes Modell (z. B. `v1-5-pruned-emaonly.safetensors`) oben links ausgewählt ist.
* **Prompt:** Dies ist Ihre Textbeschreibung dessen, was Sie generieren möchten. Seien Sie beschreibend!
* *Beispiel:* `ein majestätisches Schloss auf einem Hügel, Sonnenuntergang, Fantasy-Kunst, hochdetailliert, volumetrische Beleuchtung`
* **Negative Prompt:** Dies sagt Stable Diffusion, was *nicht* einbezogen werden soll. Sehr nützlich zur Behebung häufiger Probleme.
* *Beispiel:* `geringe Qualität, verschwommen, hässlich, verzerrt, schlechte Anatomie, Graustufen, Wasserzeichen`
* **Sampling-Methode:** Dies ist der Algorithmus, den Stable Diffusion verwendet, um das Bild zu “entrauschen”.
* `Euler a` ist schnell und gut für erste Erkundungen.
* `DPM++ 2M Karras` und `DPM++ SDE Karras` werden oft für qualitativ hochwertige Ergebnisse empfohlen. Experimentieren Sie, um herauszufinden, was Ihnen gefällt.
* **Sampling-Schritte:** Wie viele Schritte der Algorithmus benötigt. Mehr Schritte bedeuten in der Regel mehr Details, aber auch längere Generierungszeiten. 20-30 Schritte sind normalerweise für die meisten Sampler ausreichend.
* **Gesichter wiederherstellen:** Aktivieren Sie dies, wenn Sie Personen generieren und die Gesichtsqualität verbessern möchten.
* **Kacheln:** Nützlich zum Erstellen glatter Texturen.
* **Hires. fix:** Verbessert die Detailgenauigkeit und Auflösung der generierten Bilder. Sehr empfehlenswert für qualitativ hochwertige Ausgaben.
* **Breite/Höhe:** Die Abmessungen Ihres generierten Bildes. Beginnen Sie mit 512×512 oder 768×512, da dies gängige Trainingsauflösungen sind. Zu hohe Werte ohne Hires. fix können zu verzerrten Bildern führen.
* **CFG-Skala (Classifier Free Guidance Scale):** Wie stark Stable Diffusion sich an Ihren Prompt hält.
* Niedrigere Werte (z. B. 5-7): Mehr kreative Freiheit für die KI.
* Höhere Werte (z. B. 7-12): Strengere Einhaltung Ihres Prompts. Zu hoch kann dazu führen, dass Bilder “rauschig” oder “überbearbeitet” aussehen.
* **Seed:** Eine Zahl, die das anfängliche Rauschmuster bestimmt. Die Verwendung desselben Seeds mit demselben Prompt und den gleichen Einstellungen erzeugt dasselbe Bild. `-1` generiert bei jeder Ausführung einen zufälligen Seed.
* **Batch-Anzahl/Batch-Größe:**
* `Batch-Anzahl`: Wie viele Bildersets generiert werden sollen.
* `Batch-Größe`: Wie viele Bilder *auf einmal* generiert werden sollen (wenn Ihre GPU-VRAM es erlaubt). Eine größere Batch-Größe bedeutet eine schnellere Gesamterzeugung für mehrere Bilder, benötigt jedoch mehr VRAM.
Sobald Ihre Einstellungen festgelegt sind, klicken Sie auf die **Generieren**-Schaltfläche! Ihr Bild wird auf der rechten Seite erscheinen.
Weitere wichtige Registerkarten
* **Img2Img:** Verwenden Sie ein vorhandenes Bild als Ausgangspunkt. Gut für Stilübertragungen, Variationen oder Inpainting/Outpainting.
* **Extras:** Bilder hochskalieren, Gesichtswiederherstellung und mehr.
* **PNG-Info:** Ziehen Sie ein generiertes Bild hierher, um alle Einstellungen (Prompt, Seed usw.) zu sehen, die zu seiner Erstellung verwendet wurden. Unverzichtbar für die Reproduktion oder Iteration von Bildern.
* **Einstellungen:** Passen Sie fast jeden Aspekt der Web-Oberfläche an. Erkunden Sie dies, sobald Sie sich mit den Grundlagen wohlfühlen.
Fortgeschrittene Tipps für bessere Generierungen
Zu lernen, wie man Stable Diffusion ausführt, ist nur der Anfang. Gute Ergebnisse erfordern Übung und Verständnis.
* **Prompt Engineering:** Dies ist eine Kunstform.
* **Seien Sie spezifisch:** Anstatt “Hund” zu sagen, versuchen Sie “einen Golden Retriever Welpen, der in einem Park spielt, sanftes Licht.”
* **Verwenden Sie Adjektive:** “Lebendig,” “filmisch,” “rau,” “ätherisch.”
* **Stile angeben:** “Ölgemälde,” “digitale Kunst,” “Bleistiftskizze,” “fotorealistisch.”
* **Verwenden Sie Künstler/Fotografen:** “von Greg Rutkowski,” “im Stil von Ansel Adams.”
* **Gewichtung:** Verwenden Sie Klammern `()`, um das Gewicht eines Begriffs zu erhöhen, und eckige Klammern `[]`, um es zu verringern. `(castle:1.2)` macht “castle” um 20 % wichtiger.
* **Negative Prompts sind entscheidend:** Unterschätzen Sie sie nicht. Häufige negative Prompts: `hässlich, deformiert, entstellt, geringe Qualität, schlechte Anatomie, zusätzliche Gliedmaßen, fehlende Gliedmaßen, verschwommen, unscharf, Wasserzeichen, Text, Unterschrift.`
* **Erforschen Sie verschiedene Modelle:** Halten Sie sich nicht an nur eines. Laden Sie verschiedene Modelle von Civitai herunter, um solche zu finden, die in bestimmten Stilen (z. B. Anime, Fotorealismus, Fantasy) hervorragend sind.
* **Erweiterungen:** Die Automatic1111 Web-Oberfläche hat eine solide Erweiterungsregisterkarte.
* **ControlNet:** Ein Muss für präzise Kontrolle über Bildkomposition, Posen und Tiefe. Ermöglicht es Ihnen, die KI mit Referenzbildern, Skizzen oder sogar menschlichen Posen zu steuern.
* **Dynamische Prompts:** Generieren Sie automatisch Variationen von Prompts.
* **Regionale Prompter:** Wenden Sie unterschiedliche Prompts auf verschiedene Bereiche eines Bildes an.
* **Iterieren und experimentieren:** Erwarten Sie nicht perfekte Ergebnisse beim ersten Versuch. Generieren Sie mehrere Bilder, verfeinern Sie Ihren Prompt, ändern Sie die Einstellungen und lernen Sie, was funktioniert.
* **Verwenden Sie Seeds sinnvoll:** Wenn Sie ein Bild erhalten, das Ihnen gefällt, speichern Sie dessen Seed. Sie können diesen Seed dann verwenden, um Variationen zu generieren, indem Sie den Prompt leicht ändern oder die CFG-Skala anpassen.
Cloud-basierte Stable Diffusion: Eine Alternative
Wenn Ihre lokale Hardware nicht ausreicht oder Sie einfach ohne die Einrichtungsproblematik experimentieren möchten, sind Cloud-Optionen ausgezeichnet.
Google Colab
* Suchen Sie nach “Stable Diffusion Colab Notebook” auf GitHub. Viele von der Community erstellte Notebooks existieren.
* Diese Notebooks bieten ein schrittweises Skript, um Stable Diffusion in einer Colab-Umgebung auszuführen.
* Normalerweise müssen Sie Ihr Google Drive einbinden, um Modelle und Ergebnisse zu speichern.
* Seien Sie sich der Nutzungsbeschränkungen von Colab bewusst, insbesondere für die kostenlose Stufe. Bezahlte Stufen (`Colab Pro`) bieten bessere GPUs und längere Laufzeiten.
Dedizierte Webdienste (z. B. DreamStudio)
* Dies ist der einfachste Weg, um loszulegen. Sie melden sich an, erhalten einige Credits und beginnen, Prompts einzugeben.
* Sie haben oft optimierte Benutzeroberflächen und vorab geladene Modelle.
* Der Nachteil ist weniger granulare Kontrolle im Vergleich zur Automatic1111 Web-Oberfläche und potenziell höhere Kosten bei umfangreicher Nutzung.
Fehlerbehebung bei häufigen Problemen
Selbst wenn Sie wissen, wie man Stable Diffusion ausführt, kann einiges schiefgehen. Hier sind einige häufige Probleme und Lösungen:
* **”CUDA nicht genügend Speicher” Fehler:** Ihre GPU hat nicht genug VRAM.
* Reduzieren Sie die Bildabmessungen.
* Verringern Sie die Batch-Größe.
* Fügen Sie `–medvram` oder `–lowvram` zu Ihren `COMMANDLINE_ARGS` in `webui-user.bat` hinzu.
* Schließen Sie andere Anwendungen, die Ihre GPU verwenden.
* **Installationsfehler (Python, Git):**
* Stellen Sie sicher, dass Sie Python 3.10.6 installiert haben und “Python zu PATH hinzufügen” ausgewählt haben.
* Installieren Sie Git neu.
* Überprüfen Sie Ihre Internetverbindung.
* **Web UI startet nicht / “Verbindung verweigert”:**
* Stellen Sie sicher, dass das Script `webui-user.bat` (oder `webui.sh`) weiterhin in der Eingabeaufforderung/Terminal ausgeführt wird. Schließen Sie dieses Fenster nicht.
* Starten Sie das Script neu.
* Überprüfen Sie, ob Firewalls die Verbindung blockieren.
* **Bilder sind verzerrt/rauschig bei höheren Auflösungen:**
* Verwenden Sie die Option “Hires. fix”.
* Beginnen Sie mit niedrigeren Auflösungen (z. B. 512×512) und skalieren Sie dann im “Extras” Tab hoch.
* Stellen Sie sicher, dass Ihre CFG-Skala nicht zu hoch ist.
* **Langsame Generierungszeiten:**
* Aktualisieren Sie Ihre GPU (wenn möglich).
* Stellen Sie sicher, dass `xformers` in Ihren `COMMANDLINE_ARGS` aktiviert ist.
* Verringern Sie die Sampling-Schritte.
* Verwenden Sie eine schnellere Sampling-Methode (obwohl die Qualität möglicherweise abnimmt).
* Stellen Sie sicher, dass Ihre GPU-Treiber auf dem neuesten Stand sind.
Fazit
Zu lernen, wie man Stable Diffusion ausführt, eröffnet eine Welt kreativer Möglichkeiten. Ob Sie sich entscheiden, es lokal mit der funktionsreichen Automatic1111 Web-Oberfläche auszuführen oder die Bequemlichkeit von Cloud-Diensten wählen, die Grundprinzipien bleiben gleich: experimentieren Sie mit Prompts, verstehen Sie Ihre Einstellungen und iterieren Sie.
Es mag wie eine Menge Informationen erscheinen, aber gehen Sie es Schritt für Schritt an. Befolgen Sie die Anleitung zur lokalen Installation, generieren Sie Ihr erstes Bild und beginnen Sie dann, mit den Einstellungen zu spielen. Je mehr Sie experimentieren, desto besser werden Sie darin, unglaubliche Bilder aus dieser leistungsstarken KI herauszukitzeln. Viel Spaß beim Generieren!
FAQ (Häufig gestellte Fragen)
**F1: Muss ich ein Programmierer sein, um Stable Diffusion zu verwenden?**
A1: Nein, absolut nicht! Während die anfängliche Einrichtung die Verwendung der Befehlszeile umfassen kann, geht es, sobald Sie die Web-Oberfläche von Automatic1111 ausführen, nur um das Klicken von Schaltflächen und das Eingeben von Textprompts. Sie benötigen kein Programmierwissen, um erstaunliche Bilder zu erstellen.
**F2: Was ist die minimale GPU-Anforderung, um Stable Diffusion lokal auszuführen?**
A2: Für ein anständiges Erlebnis wird eine NVIDIA-GPU mit mindestens 8 GB VRAM empfohlen. Während einige Benutzer es möglicherweise schaffen, es mit 6 GB oder sogar 4 GB mit schweren Optimierungen (wie `–lowvram` und kleineren Bildgrößen) auszuführen, sorgt 8 GB für einen viel reibungsloseren Workflow. 12 GB oder mehr sind ideal für größere Bilder und schnellere Generierung.
**F3: Wo finde ich weitere Modelle oder lerne mehr über Prompt Engineering?**
A3: Für Modelle (Checkpoints) ist Civitai eine hervorragende Ressource mit einer umfangreichen Sammlung von Community-trainierten Modellen. Um mehr über Prompt Engineering zu lernen, gibt es viele Online-Communities, Foren und YouTube-Kanäle, die sich mit Stable Diffusion beschäftigen. Die Suche nach “Stable Diffusion Prompt-Guide” wird eine Fülle von Informationen liefern. Die offiziellen Stable Diffusion GitHub-Seiten und Hugging Face haben ebenfalls Dokumentationen und Community-Diskussionen.
**Q4: Ist Stable Diffusion kostenlos zu verwenden?**
A4: Ja, das Kernmodell von Stable Diffusion ist Open Source und kann kostenlos heruntergeladen und verwendet werden. Wenn Sie es lokal auf Ihrem eigenen Computer ausführen, gibt es keine wiederkehrenden Kosten über Ihre Stromrechnung hinaus. Wenn Sie Cloud-Dienste nutzen, zahlen Sie für die Rechenressourcen, die Sie verwenden, was je nach GPU und Dienst von wenigen Cent bis zu mehreren Dollar pro Stunde variieren kann.
🕒 Published:
Related Articles
- Claudes zahlende Nutzer stimmen mit ihrem Geld ab, während alle anderen über Ethik streiten.
- Eleva tu programación con herramientas de escritura de IA
- Top 10 ferramentas de IA agentiva que estão revolucionando os fluxos de trabalho em empresas
- Top Kostenlose KI-Bildgeneratoren für Blogger: Golcornerdaily.biz.id’s Auswahl