9. September 2023

Powerrendern mit Stable Diffusion

Die Ergebnisse aus der Beschäftigung mit EasyDiffusion (Beta) hatten mich so überzeugt, daß ich flugs eine Grafikkarte bestellte, die ich eigentlich gar nicht brauche, außer für die Rechnerei an AI-Bildern. Jetzt macht Rendern Spaß, denn ich kann dran sitzen bleiben, statt zwei Tassen Kaffee trinken zu gehen, bis die Bilder fertig sind. Ich lasse immer 4 zufällig errechnen, in der Hoffnung, daß wenigstens eines was geworden ist. Was hinten rauskommt, weiß man vorne leider nicht.

Ich zocke nicht, als benötige ich keine Grafikkarte. Die Leistung der Prozessorgrafik reichte für alle Aufgaben allemal aus. Das ist bei AI anders, denn die setzen auf Cuda, die Sprache, mit der man den Grafikprozessor von Nvidia-Karten und den Videospeicher ansprechen kann. Die Renderei unterscheidet sich um den Faktor 50 bis 60, was die Zeit betrifft. Statt 5 Minten benötigt ein Bild jetzt nur noch 5 Sekunden. Verdreifache ich die Bildgröße,wie in den ersten Tests geschehen, dann ist es eben nur noch ein Faktor von 30 bis 40. Statt 20 bis 30 Minuten für 4 Briefmarken bekomme ich ich jetzt 4 ordentliche HD-Bilder (1024x768, mit diesen werten und 512 obendrein wurden die meisten Modelle trainiert) in 5 Minuten.

Die Auswahl der Grafikkarte war nicht weiter schwer. Mein Mutterbrett (Motherboard) hat einen PCI-3-Steckplatz für eine Grafikkarte. Da hätte die 2er Serie der Gforce ausgereicht. Die ist immer noch sündhaft teuer.

Für unter 300 Euro bekommt man aber die oben abgebildete RTX 3060 mit satten 12 GB Videospeicher und PCI 4. (PCi 4 bringt mir wegen dem Motherboard nichts.) Genau darauf kam es an, viel Videospeicher für wenig Geld, denn Stable Diffusion klatsch freudig erregt über jedes zusätzliche GB an Videospeicher. Die Rechenleistung der Grafikkarte an sich ist da zweitrangig, wenn auch nicht ohne. Insofern konnte ich mir die Boliden jenseits der 500 Euro und aus der 4er Serie sparen. Brauche ich nicht.

Ich habe mal versucht, ein Prompt vom Modell Juggernaut XL (SDXL) nachzuvollziehen. Mit dem Modell funktioniert das unter EasyDiffusion noch nicht, dafür mit einem anderen. Das Bild ist unbearbeitet, also so, wie es aus dem Grafikspeicher auf die Festplatte fiel.

prompt: valley, fairytale treehouse village covered, , matte painting, highly detailed, dynamic lighting, cinematic, realism, realistic, photo real, sunset, detailed, high contrast, denoised, centered, michael whelan, seed: 3276779985,

negative_prompt: (worst quality, low quality, normal quality, lowres, low details, oversaturated, undersaturated, overexposed, underexposed, grayscale, bw, bad photo, bad photography, bad art:1.4), (watermark, signature, text font, username, error, logo, words, letters, digits, autograph, trademark, name:1.2), (blur, blurry, grainy), morbid, ugly, asymmetrical, mutated malformed, mutilated, poorly lit, bad shadow, draft, cropped, out of frame, cut off, censored, jpeg artifacts, out of focus, glitch, duplicate, (airbrushed, cartoon, anime, semi-realistic, cgi, render, blender, digital art, manga, amateur:1.3), (3D ,3D Game, 3D Game Scene, 3D Character:1.1), (bad hands, bad anatomy, bad body, bad face, bad teeth, bad arms, bad legs, deformities:1.3),

num_inference_steps: 30, guidance_scale: 7, vram_usage_level: balanced, sampler_name: ddpm, use_stable_diffusion_model: cheeseDaddys_41_landschaften

Stilübung