Dit lijkt mij eerder een prompt voor een video, mede gezien de termen 'declassified Cold War surveillance video', 'The footage feels unsteady', 'rolling static', 'flickering timecode' en 'intermittently', Allemaal omschrijvingen waar je in een statische afbeelding niks van ziet, maar die je wel moet gebruiken in een film.EverLast2002 schreef op woensdag 17 december 2025 @ 18:08:In de sfeer van Roswell, 1947...
prompt:
Leaked intelligence footage frame, black-and-white with degraded VHS quality, resembling declassified Cold War surveillance video. A surgeon in a white lab coat and surgical mask conducts a sterile autopsy on a humanoid alien inside a covert military medical facility. The alien has an elongated skull, smooth pale skin, thin limbs, and large closed eyes, lying motionless on a steel examination table. The footage feels unsteady, as if recorded from a fixed security camera or hidden observation point.
Visual artifacts dominate the image, rolling static, scan lines, tracking errors, light warping, and heavy film grain. A flickering timecode runs along the bottom edge that says “JULY 1947” “CLASSIFIED” and unintelligible alphanumeric clearance codes intermittently burn into the frame. Harsh overhead lighting creates stark, clinical shadows. Surroundings include concrete walls, analog monitoring equipment, dangling cables, clipboards, and indistinct military figures partially obscured by darkness.
Low resolution, imperfect focus, washed-out highlights, crushed blacks. The image feels illicit and unsettling—unauthorized disclosure, forbidden evidence, suppressed history. Authentic, documentary realism. Ominous, restrained, covert, intelligence-leak aesthetic. Roswell alien autopsy vibe.
Waarom heb je die termen in de prompt gezet als ik vragen mag?
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik heb willen aansturen op een "still frame" uit de beruchte alien autopsie videofilm (die later nep bleek te zijn), met een vleugje Area 51 en top secret erbij.Yaksa schreef op woensdag 17 december 2025 @ 18:56:
[...]
Dit lijkt mij eerder een prompt voor een video, mede gezien de termen 'declassified Cold War surveillance video', 'The footage feels unsteady', 'rolling static', 'flickering timecode' en 'intermittently', Allemaal omschrijvingen waar je in een statische afbeelding niks van ziet, maar die je wel moet gebruiken in een film.
Waarom heb je die termen in de prompt gezet als ik vragen mag?
Zelf eerst een paar prompt pogingen gedaan en later met hulp van chatgpt.
Het lijkt heel erg op iemand die zijn opblaaspop op een specifieke plek aan het plakken isEverLast2002 schreef op woensdag 17 december 2025 @ 20:31:
ik heb er nog meer, maar het idee lijkt me duidelijk.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik zat hier nog even over na te denken. Vind het concept heel tof maar er knaagde iets. En ik denk dat het komt door het kleurgebruik. De stijl is anders maar de kleuren zitten in precies dezelfde range. Wellicht kun je het verschil nog versterken door hier mee te spelen. Maar zoals eerder gezegd. Tof concept en ik zie je kunst graag voorbij komen.Yaksa schreef op zaterdag 13 december 2025 @ 23:35:
Vanmiddag een beetje aan het schilderen geweest......
[Afbeelding]
Let op verschil in surrealisme in het schilderij en realisme in de rest van de afbeelding. Dat viel nog niet mee om dat in een prompt te vatten.
Voor wie zich ook extravagant uit wil dossen geef ik hier alvast wat voorbeelden.
Slinger de naaimachine maar aan......
:strip_exif()/f/image/SSIH5dVkP2LDOWQSIDsdQJ5M.jpg?f=fotoalbum_large)
Andere kleurtjes en textiles kan natuurlijk ook:
![]() | ![]() | ![]() |
![]() | ![]() | ![]() |
Ik werk momenteel met een model (flux1-dev.safetensors) wat eigenlijk niet in het VRAM van mijn GPU past, een gedeelte van het model wordt derhalve in het RAM geladen en door de CPU verwerkt. Ik merk nauwelijks verschil in tijd van genereren, duurt ongeveer een halve minuut langer, maar het resultaat is beter.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
/f/image/VNsQm5aDXH5d2TRl2VWwmVw7.png?f=fotoalbum_large)
Deze is mooi gelukt voor mijn doen
Model: https://civitai.com/models/24350?modelVersionId=2315492
quote: POSmasterpiece, best quality
fantasy illustration,
vibrant saturated colors, high contrast, dramatic lighting,
<lora:F4st>
(dutch angle:1.2)
zoomed in female warrior face, (focus on eyes), anger, hurt, vengeful
((intense stare at viewer, crying blood, scars))
(correct eyes, correct pupils, correct iris)
opening katana, unsheathing katanana, light reflection in eyes, light reflection from katana
<embedding:BSY_Anatomy_Positives_V1_PRO>
Embeddings zijn optioneel - maar zijn gekocht: https://www.patreon.com/posts/anatomy-realism-134893265quote: NEG<embedding:BSY_Anatomy_Negatives_V1_PRO>
obstructed face, glowing eyes, glowing pupils
(voor mij doen ze wat ze moeten doen, de lazyembeddings bijv. zijn het vaak voor mij net niet...)
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Wat ik me dan afvraag is of je nou een tekening wilt of een zo realistisch mogelijke afbeelding. In je prompt staat illustration en de LoRa maakt de boel juist weer realistisch. Ik heb situaties meegemaakt dat die twee elkaar gaan tegenwerken terwijl dit te ondervangen is door in de prompt iets als 'ultra-detailed anime-style portrait' op te nemen. Het is ook wel handig om in de prompt aan te geven waar de 'scars' moeten zitten, anders gaat AI dat zelf (verkeerd) interpreteren en krijg je littekens op hele rara plaatsen. En ik zie die betraande ogen niet als zodanig in de prompt omschreven (of ik kijk er over heen).SkyStreaker schreef op donderdag 25 december 2025 @ 08:54:
[Afbeelding]
Deze is mooi gelukt voor mijn doenAlhoewel haar rechterduim (voor ons links) een beetje F'd up is
![]()
Model: https://civitai.com/models/24350?modelVersionId=2315492
Embeddings zijn optioneel - maar zijn gekocht: https://www.patreon.com/posts/anatomy-realism-134893265
(voor mij doen ze wat ze moeten doen, de lazyembeddings bijv. zijn het vaak voor mij net niet...)
Wel een mooie compositie trouwens, zit spanning in.
Ook even In Forge (Stable Diffusion) geprobeerd, meer in de anime style:
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Wauw, mooie afbeeldingen !Yaksa schreef op woensdag 24 december 2025 @ 21:01:
Over ruim een maand start het Carnaval in Venetië.
Voor wie zich ook extravagant uit wil dossen geef ik hier alvast wat voorbeelden.
Slinger de naaimachine maar aan......
[Afbeelding]
Andere kleurtjes en textiles kan natuurlijk ook:Voor hen die ook hiermee willen spelen de prompt: 'Masked photomodel and her masked partner both dressed in extravagant purple, indigo and gold Venetian costumes adorned with jewels and wearing extremely large artistic hats with large tubelar feather spirals at the carneval in Venice. Three-quarter view. Camera Settings: Olympus OM-1 Mark II with OM SYSTEM M.Zuiko Digital ED 75mm lens, f/8 aperture for sharp details, balanced exposure to emphasize all textures. <lora:flux_realism_lora:.61>'
[Afbeelding] [Afbeelding] [Afbeelding] [Afbeelding] [Afbeelding] [Afbeelding]
Ik werk momenteel met een model (flux1-dev.safetensors) wat eigenlijk niet in het VRAM van mijn GPU past, een gedeelte van het model wordt derhalve in het RAM geladen en door de CPU verwerkt. Ik merk nauwelijks verschil in tijd van genereren, duurt ongeveer een halve minuut langer, maar het resultaat is beter.
Eindelijk gebruik je het volwaardige flux.dev model. Ik wisselde zelf ook tussen de gguf-Q modellen en het dev model, en echt je merkt gewoon verschil. Inderdaad duurt het renderen iets langer (is het zeker waard).
Niet om azijn te willen pissen, maar jouw afbeeldingen kunnen nog mooier worden als je er een upscale op loslaat. In ComfyUI is dit vrij makkelijk te doen, alleen in Forge weet ik niet hoe dit werkt (nog nooit gebruikt).
"Deze is mooi gelukt voor mijn doen
Super, de afbeelding knalt van het scherm.
(In ComfyUI kan die duim vrij makkelijk met InPaint gecorrigeerd worden).
Goede aanwijzingen, zeker - ik probeer prompting minimaal te houden en ben nog veel aan het tweakenYaksa schreef op donderdag 25 december 2025 @ 12:03:
[...]
Wat ik me dan afvraag is of je nou een tekening wilt of een zo realistisch mogelijke afbeelding. In je prompt staat illustration en de LoRa maakt de boel juist weer realistisch. Ik heb situaties meegemaakt dat die twee elkaar gaan tegenwerken terwijl dit te ondervangen is door in de prompt iets als 'ultra-detailed anime-style portrait' op te nemen. Het is ook wel handig om in de prompt aan te geven waar de 'scars' moeten zitten, anders gaat AI dat zelf (verkeerd) interpreteren en krijg je littekens op hele rara plaatsen. En ik zie die betraande ogen niet als zodanig in de prompt omschreven (of ik kijk er over heen).
Wel een mooie compositie trouwens, zit spanning in.
Ook even In Forge (Stable Diffusion) geprobeerd, meer in de anime style:
[Afbeelding]
De F4st heeft waarschijnlijk niet het beoogde effect, daarom werk ik veel met statische prompts en maak ik van sommige dingen een comment via #, werkt fijn voor overslaan, maar niet vergeten
"Crying Blood" begrijpen maar heel, heel weinig modellen. lijken weinig modellen te begrijpen.
Misschien iets proberen met BREAK, maar die begrijp ik niet helemaal. Qua realisme, ik probeer wel structuur toe te voegen, maar misschien moet ik meer doen via filmnoise, ISO ruis. oid.
Maar, ben blij dat de compositie bevalt, daar probeer ik nu meer mee te doen!
Dank! En voel je vrij om jouw resultaat te laten zienEverLast2002 schreef op donderdag 25 december 2025 @ 12:25:
@SkyStreaker
"Deze is mooi gelukt voor mijn doenAlhoewel haar rechterduim (voor ons links) een beetje F'd up is :+"
Super, de afbeelding knalt van het scherm.
(In ComfyUI kan die duim vrij makkelijk met InPaint gecorrigeerd worden).
[ Voor 5% gewijzigd door SkyStreaker op 25-12-2025 13:49 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
/f/image/Cxoa6kUg1eMzNp6wml7oFN1I.png?f=fotoalbum_large)
/f/image/AQ0NQGbqUDVyunnhCbA6dNSk.png?f=fotoalbum_large)
model: Red-Z-Image-Turbo
sampler: euler_ancestral
scheduler: FlowMatchEulerDiscreteScheduler
steps 10
no lora
prompt:
Extreme close-up of an abandoned Santa Claus hat with a human skull discarded in the Arizona desert, half-buried in sand, ultra-realistic. A snake is crawling out of the eye of the skull. Hat surface severely weathered, embedded grit. Sand packed into vents and seams, erosion from years of wind and heat.
Golden hour light, low and warm but muted, filtered through dust in the air, soft shadows stretching across the ground. Bleak, quiet atmosphere, sense of long-term abandonment. Shallow depth of field, sharp focus on damaged textures, blurred barren desert background. Natural color grading, subdued contrast, desaturated tones. Photorealistic cinematic realism, grounded VFX quality, handheld-film still look.
![]() | ![]() |
p.s. - geen adetailer/hiresfix er nog over.
/f/image/NfjR4GyhYEz1W4dbgSHsCUa9.png?f=fotoalbum_large)
Het enige waar ik nog niet helemaal tevreden over ben is het lemmet, maarreh... Prima dit verder
PerfectDeliberate v5, supreme/normal 40s/7cfg, 832x1216, 795486034
Afterdetailer met nomos8khatlotf v20 (al kan dit ook gewoon met swinir/remacri/realesrgan) x2, 20s/5cfg, denoise op .44
quote: POSmasterpiece, best quality
<embedding:lazypos>
complex background, bokeh fireflies
(dutch angle, dutch angle, dutch angle)
(((zoomed in female warrior face))), (focus on eyes), anger, hurt, vengeful, (evident anger look, angry expression, )
((intense stare at viewer, evident crying, (tears mixing with blood:1.2), bloodied face, blood streaks on face))
battle scars on face, scars along nosebridge and cheeks
(correct eyes, correct pupils, correct iris)
(correct hands)
grabs katana by handle, draws katana from scabbard in front of her face,
opening katana, unsheathing katanana, draws katana from scabbard, blade visible
light reflection in eyes, light reflection from katana
(((filmgrain, noise, ISO noise)))
quote: NEG<embedding:lazyhand>
<embedding:lazyneg>
(missing fingers), medieval armor, medieval clothing
obstructed face, glowing eyes, glowing pupils, (weapon close to mouth, close to chin)(crosshatching scar)
modern architecture, stainless steel, metal railings, handrails, glass, concrete, minimalist design, urban, clean geometry, polished surfaces, contemporary, industrial design
[ Voor 54% gewijzigd door SkyStreaker op 25-12-2025 13:59 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Top, maar na deze toch lichte kerst-terror moet er natuurlijk nog even een sfeervolle herbalancering zijnEverLast2002 schreef op donderdag 25 december 2025 @ 12:40:
Extreme close-up of an abandoned Santa Claus hat with a human skull discarded in the Arizona desert, half-buried in sand, ultra-realistic. A snake is crawling out of the eye of the skull. Hat surface severely weathered, embedded grit. Sand packed into vents and seams, erosion from years of wind and heat.
Golden hour light, low and warm but muted, filtered through dust in the air, soft shadows stretching across the ground. Bleak, quiet atmosphere, sense of long-term abandonment. Shallow depth of field, sharp focus on damaged textures, blurred barren desert background. Natural color grading, subdued contrast, desaturated tones. Photorealistic cinematic realism, grounded VFX quality, handheld-film still look.
Flux 2 Dev, geen lora's, 2560x1440:A journey back in time to the early 20th century in a snowy Amsterdam on Christmas Eve. On the frozen canal, we see people in period clothing skating on the ice. It's snowing. High above the houses, a sleigh carrying Santa Claus flies, pulled by reindeer. The houses are traditionally illuminated on this dark, cold evening. Shot on a Canon 5D with an 85mm lens.
youtube.com/@hisrep
Ik upscale al mijn hier geplaatste afbeeldingen al (ze zijn dubbel klikbaar voor de echte resolutie), maar dat doe ik in PSP, die heeft ook een AI upscaling optie.EverLast2002 schreef op donderdag 25 december 2025 @ 12:17:
[...]Niet om azijn te willen pissen, maar jouw afbeeldingen kunnen nog mooier worden als je er een upscale op loslaat. In ComfyUI is dit vrij makkelijk te doen, alleen in Forge weet ik niet hoe dit werkt (nog nooit gebruikt).
In Forge kan het ook, maar dat duurt me veel te lang (meer dan een half uur per afbeelding).
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik begrijp dat je flux.2 gebruikt?
Render je dan lokaal op je pc, zoja wat voor beest van een videokaart/systeem heb je dan?
Ik lees dat het Q2 (eventueel Q3) model aanbevolen wordt als je een 12GB videokaart hebt.
Mijn favoriete model is momenteel RED Z-Image-Turbo en het origineel Z-Image-Turbo
De RED versie is een verbeterd model (o.a. belichting, kijkhoek).
De prompt met tekst volgen beide modellen zeer goed op.
edit: betere downloadlink voor Z-Image-Turbo
Voor low VRAM videokaarten de fp8 versie
[ Voor 17% gewijzigd door EverLast2002 op 25-12-2025 23:25 ]
[ Voor 10% gewijzigd door DeNachtwacht op 25-12-2025 22:41 ]
youtube.com/@hisrep
Tja, er zijn niet zo heel veel mensen die zich een RTX5090 kunnen veroorloven. Overigens wel een redelijk alternatief voor een straalkacheltje in deze koude dagenDeNachtwacht schreef op donderdag 25 december 2025 @ 22:36:
@EverLast2002 ik heb de fp8 versie van het model, met een RTX 5090 kost het dan zo’n 3 minuten om 1 afbeelding te genereren. Het model heeft een 4MP max dus je kan 2560x1440p zonder te hoeven upscalen dan generen. Er zijn van dat model ook Q2,4 en 6 gguf varianten van te vinden, daar ga ik ook nog eens mee testen want het is voor af en toe prima maar ik vind idd z image turbo ook wel heerlijk snel. Ik denk dat met 32GB ram de Q6 net moet lukken? Voor close ups van mensen / objecten vind ik z image turbo trouwens zelfs mooier dan flux 2, maar wil je meer een straatbeeld zoals dit dan genereert z image her en der toch wel gekke dingen (1 persoon met rendierkop, mens met 3 benen, kerstversiering die onder de boom door gaat, dat soort dingen).
Iemand nog zin in een potje kaarten?
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Nog steeds geen fan van Comfyui, al wordt het wel steeds beter.
Comfui Cloud nog even geprobeerd maar veel nodes worden nog niet ondersteund, maar wel lekker snel met een RTX Pro 6000, templates werken natuurlijk wel probleemloos ook Gemini, OpenAI ect.
Zal is morgen Forge Neo is proberen met ZIT support.
https://github.com/Haoming02/sd-webui-forge-classic/tree/neo


[ Voor 6% gewijzigd door nFo op 26-12-2025 02:55 ]
@Yaksa eens hoor, maar het is ook een kwestie van keuzes maken. toen ik begin dit jaar mijn 4,5 jaar oude pc ging upgraden ben ik er even in gedoken en ipv een RTX 5080 systeem voor rond de €2000, gegaan voor 32GB extra ddr4 (toen nog €58
youtube.com/@hisrep
Comfyui Cloud draait op een RTX Pro 6000, zelf helaas geen, maar kun je inderdaad Flux 2 even proberen.DeNachtwacht schreef op vrijdag 26 december 2025 @ 09:32:
@nFo eens hoor, zoals ik zei mij verbaasde de kwaliteit van close ups van z image ook. Maar met een RTX 6000 pro ben je toch één van de geluksvogels die zelfs een volle flux in het vram kunnen draaien?
@Yaksa tsja, het is ook een kwestie van keuzes maken, toen ik begin dit jaar mijn 4,5 jaar oude pc ging upgraden ben ik er even in gedoken en ipv een RTX 5080 systeem voor €2000, gegaan voor 32GB extra ddr4 (toen nog €58) en een RTX 5090 in mijn am4 systeem voor nagenoeg hetzelfde bedrag.
youtube.com/@hisrep
ZIT is inderdaad makkelijker mee te werken, met Flux 2 wil het mij nog niet goed lukken.DeNachtwacht schreef op vrijdag 26 december 2025 @ 09:42:
@nFo ah zo. Ach, zoals al gezegd eigenlijk vind ik z imago turbo (en die red variant die jij noemde) interessanter verder mee te gaan experimenteren, het is echt een enorm snelheidsverschil dat je daarmee al in een paar seconden een mooie afbeelding hebt.
Maar zal het lokaal is gaan draaien, tenminste als het past in 16GB Vram en de SSD ook weer vol.
https://www.reddit.com/r/...bo_vs_flux_2_dev_for_art/?
Het makkelijker werken bij ZIT zit 'm vooral in het feit dat het een 'distilled' model is. Daardoor werkt het sneller bij simpele prompts maar de output is dan ook simpeler.nFo schreef op vrijdag 26 december 2025 @ 10:09:
[...]ZIT is inderdaad makkelijker mee te werken, met Flux 2 wil het mij nog niet goed lukken.
Maar zal het lokaal is gaan draaien, tenminste als het past in 16GB Vram en de SSD ook weer vol.
https://www.reddit.com/r/...bo_vs_flux_2_dev_for_art/?
Daarentegen werkt Flux2 beter bij uitgebreide prompts omdat het model textueel beter onderlegd is. Maar dan dien je wel je prompt zo in te richten dat Flux2 er goed mee overweg kan. Het duurt daardoor ook wat langer om een afbeelding te genereren. Maar ook promptwriting voor Flux2 kun je leren, een prompting guide voor Flux2 is hier te vinden. Doe er Uw voordeel mee.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
https://huggingface.co/city96/FLUX.2-dev-gguf/tree/main
[ Voor 8% gewijzigd door DeNachtwacht op 26-12-2025 11:49 ]
youtube.com/@hisrep
...niet om het een of ander, maar de ZIT en RED ZIT modellen tip kwamen van mij...DeNachtwacht schreef op vrijdag 26 december 2025 @ 09:42:
@nFo ah zo. Ach, zoals al gezegd eigenlijk vind ik z imago turbo (en die red variant die jij noemde) interessanter verder mee te gaan experimenteren, het is echt een enorm snelheidsverschil dat je daarmee al in een paar seconden een mooie afbeelding hebt.
"Dank! En voel je vrij om jouw resultaat te laten zien :)"
/f/image/LZ3N5WCCEVBetkpbwXadp1F1.png?f=fotoalbum_large)
Vanmiddag even snel gemaakt met RED ZIT, en niet anime zoals jouw afbeeldingen.
Morgen weer verder met experimenteren.
"Nog steeds geen fan van Comfyui, al wordt het wel steeds beter."
Ik was een verwoed Automatic 1111 gebruiker, totdat ik de overstap maakte naar ComfyUI.
Geen moment spijt van gehad. ComfyUI is zelf helemaal te tweaken, bij Automatic 1111 gebeuren er (teveel) ongrijpbare dingen onder de motorkap. Maargoed, het is gewoon iets persoonlijks denk ik.
Forge lijkt nogal op Automatic 1111 als ik die screenshot zie.
Die meneer met baard en zwaard afbeelding is trouwens wel rete scherp en helder !
Ook begonnen met Auto1111, toen overgestapt naar Forge toen de ontwikkeling gestopt was, Forge het zelfde probleem.EverLast2002 schreef op vrijdag 26 december 2025 @ 23:21:
@nFo
"Nog steeds geen fan van Comfyui, al wordt het wel steeds beter."
Ik was een verwoed Automatic 1111 gebruiker, totdat ik de overstap maakte naar ComfyUI.
Geen moment spijt van gehad. ComfyUI is zelf helemaal te tweaken, bij Automatic 1111 gebeuren er (teveel) ongrijpbare dingen onder de motorkap. Maargoed, het is gewoon iets persoonlijks denk ik.
Forge lijkt nogal op Automatic 1111 als ik die screenshot zie.
Die meneer met baard en zwaard afbeelding is trouwens wel rete scherp en helder !
En nu Comfyui, ik wordt er nog steeds niet echt gelukkig van, weer een node die ik niet werkend krijg.
Door al die spaghetti in beeld zie je de bomen door het bos ook niet meer.
Laatste afbeelding is met een second pass om meer details te krijgen en dan sharpen en nog een kleur correctie in Photoshop. Misschien nog upscale er achter zetten, morgen is proberen.
EverLast2002 schreef op vrijdag 26 december 2025 @ 22:50:
@SkyStreaker
"Dank! En voel je vrij om jouw resultaat te laten zien :)"
[Afbeelding]
Vanmiddag even snel gemaakt met RED ZIT, en niet anime zoals jouw afbeeldingen.
Morgen weer verder met experimenteren.
/f/image/ml0xEexBtPKSrixcrpxYl73G.png?f=fotoalbum_large)
Had zelf ook met juggernaut XL lopen knoeien! Maar mooi werk ^^
[linebreak]
Even meer serieuze vraag, het volgende plaatje:
/f/image/ybbAlOQEtIhhMvjE6ou4vq23.png?f=fotoalbum_large)
Er is absoluut NIKS in de prompt anders dan onderstaande die naar de setting verwijst:
https://civitai.com/model...nges?modelVersionId=55190 - dit model is gebruikt destijds.POS:
(Background lush forest and castle, realistic)
NEG:
<embedding:easynegative:1.2>, weapons, angel wings, wings
<embedding:badhandv4:1.0>
bad eyes, ugly eyes, wrong eyes, poorly drawn, perspective errors, unaligned errors, bad art, lowres
Prompting waar ik mee knoei is ten dele lukkend (FLUX Artsy FP8 op dit moment):
Dit levert ongeveer elke keer iets rond dit op:POS
a solitary young woman, full body,
elegant posture, calm expression,
hair tied in a ponytail,
hands gently closed,
female-focused composition,
sculptural presentation,
monolithic vertical framing,
isolated central figure,
a tall architectural stone structure framing her body,
natural arch shape,
wider pedestal base, narrower upper section,
subtle integrated foliage as part of the structure,
subject and structure treated as a single sculptural object,
high-contrast white background,
pure white negative space,
studio lighting,
sharp focus,
clean silhouette,
gallery presentation,
no environment,
no scenery
NEG
orest, trees, castle, village, buildings,
background scenery, landscape, sky, clouds,
depth of field, cinematic lighting,
storytelling, narrative scene,
angel wings, wings, feathers,
weapons,
bad anatomy, extra limbs,
poorly drawn hands,
misaligned eyes,
lowres, blurry
/f/image/rfRnI21g9RuTNq27YZddHIzB.png?f=fotoalbum_large)
Wat ik nog niet heb geprobeerd is NoobAI/Illustrious/ZIT of Flux met andere text-encoder. Het liefst wel 2D Anime-esque zoals het pplaatje.
Heeft iemand een idee waar ik mis ga? Of is het extreem toevalstreffer?
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Is dit wat je zoekt?SkyStreaker schreef op zaterdag 27 december 2025 @ 01:34:
Dit levert ongeveer elke keer iets rond dit op:
[Afbeelding]
Wat ik nog niet heb geprobeerd is NoobAI/Illustrious/ZIT of Flux met andere text-encoder. Het liefst wel 2D Anime-esque zoals het pplaatje.
Heeft iemand een idee waar ik mis ga? Of is het extreem toevalstreffer?
Even snel een Stable Diffusion prompt gemaakt die het bovenste plaatje probeert te benaderen.
Is nog niet perfect, maar met een aantal iteraties / aanpassingen zou die beter moeten worden.
Edit: tweede iteratie geplaatst, ziet er beter uit...
:strip_exif()/f/image/qhybdV4QOzSWlEGuFz7NNNng.jpg?f=fotoalbum_large)
De prompt: 'masterpiece, ultra-high quality illustration, anime realism, full body shot, young adult woman, slender hourglass figure, pale porcelain skin, soft natural makeup, large expressive eyes, delicate facial features, long dark brown hair tied in a high bun with loose strands framing face, calm confident expression, elegant posture, standing pose, one leg slightly forward, subtle hip shift, detailed anatomy, smooth skin shading, soft highlights. Wearing a deep red and black lace bodysuit with intricate floral trim, high-cut sides, plunging neckline, sheer lace accents, matching flowing red shawl draped over arms, black strappy high-heel sandals. Ancient stone garden wall covered with moss and small shrubs, traditional East Asian garden aesthetic, weathered stone texture, greenery growing from cracks, natural outdoor setting. Soft daylight, diffused sunlight, gentle shadows, cinematic lighting, shallow depth of field, crisp focus on subject, background slightly blurred, balanced composition, centered framing, high detail fabric textures, realistic lace transparency, fine line art, smooth gradients, painterly yet sharp finish, 8k detail, clean color palette, professional illustration'
[ Voor 4% gewijzigd door Yaksa op 27-12-2025 10:53 ]
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Niet eens zozeer de deerne maar het effect in contrast en monolithisch uitsnede bij gebrek aan beter omschreven.
[ Voor 25% gewijzigd door SkyStreaker op 27-12-2025 12:40 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Of ik begrijp je niet goed, of we praten langs elkaar heen.SkyStreaker schreef op zaterdag 27 december 2025 @ 12:39:
Helaas niet, zie eigen dat het onderwerp een soort "cut out" lijkt te zijn op een absoluut witte achtergrond en dat het gras onder haar voeten wat uitloopt? Dat effect
Niet eens zozeer de deerne maar het effect in contrast en monolithisch uitsnede bij gebrek aan beter omschreven.
Kun je iets duidelijker omschrijven wat je bedoeld?
3e iteratie dan, lijkt nog meer op jouw oorspronkelijke afbeelding:
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
nog eentje, meer agressief.
/f/image/AqAXyMkTIOqghezXCimNSCek.png?f=fotoalbum_large)
model: RED ZIT
sampler: res_2m
scheduler: sgm_uniform
steps 11
"Er is absoluut NIKS in de prompt anders dan onderstaande die naar de setting verwijst:"
Misschien inderdaad een toevalstreffer, in combinatie met tijdelijke data uit je cache (als je lokaal werkt).
Daar zijn die 'free model and node cache' en 'unload models' buttons voor, om schoon/vers te genereren.
Ziet er wel erg anime uit. Ik denk dat je met een anime LoRa een eind komt om dit effect weer terug te krijgen.
Ik gebruik zelf soms deze LoRa van Niji
De Scenic werkt heel prettig.
[ Voor 13% gewijzigd door EverLast2002 op 27-12-2025 14:47 ]
Exact, helemaal kloppend!EverLast2002 schreef op zaterdag 27 december 2025 @ 13:08:
Volgens mij bedoelt ie het effect van een "cut-out", onderwerp in kleur, en "zwevend" tegen een blanco/witte achtergrond.
Het originele model betreft ook een anime model: https://civitai.com/model...nges?modelVersionId=55190 - deze had ik gelinkt
[ Voor 21% gewijzigd door SkyStreaker op 27-12-2025 19:00 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Dus je bedoeld dit?:SkyStreaker schreef op zaterdag 27 december 2025 @ 18:58:[...]
Exact, helemaal kloppend!
Het originele model betreft ook een anime model: https://civitai.com/model...nges?modelVersionId=55190 - deze had ik gelinkt
:strip_exif()/f/image/SJMEYQGnaRY0fwmklxn7pcFU.jpg?f=fotoalbum_large)
De prompt: 'masterpiece, ultra-high quality illustration, anime realism, full body shot, young adult woman, slender hourglass figure, pale porcelain skin, soft natural makeup, large expressive eyes, delicate facial features, long dark brown hair tied in a high bun with loose strands framing face, calm confident expression, elegant posture, standing pose, one leg slightly forward, subtle hip shift, detailed anatomy, smooth skin shading, soft highlights. Wearing a deep red and black lace bodysuit with intricate floral trim, high-cut sides, plunging neckline, sheer lace accents, matching flowing red shawl draped over arms, black strappy high-heel sandals. Set against a neurtral white backdrop, natural setting. Soft studiolight, diffused light, gentle shadows, cinematic lighting, shallow depth of field, crisp focus on subject, no background, balanced composition, centered framing, high detail fabric textures, realistic lace transparency, fine line art, smooth gradients, painterly yet sharp finish, 8k detail, clean color palette, professional illustration'
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
/f/image/bIdrAyxxgvIgtExgUtodA8KR.png?f=fotoalbum_large)
Met als extra dus dat ze tegen een muurtje aanleunt, dat hetzelde effect als haar heeft (ze leunt als het ware tegen een monolith aan), de onderste cirkel geeft aan dat het stuk gras waar ze op staat geen constricties heeft i.t.t. de harde constricties van hetgeen ze tegen aan leunt. Het "effect" is an sich niet zo lastig, maar om dat muurtje dus erbij te krijgen met het uitlopende gras? Woei.
Dit maakt het uitleggen lastig, helemaal als prompt... Maar de compositie is ZO retegaaf!
![]() | ![]() | ![]() |
![]() |
POS | (flat, 2D, printed:1.5)(pristine white background)(pristine white background)(sticker style:1.8)
sticker stijl is hier heel hard (1.8), zodat ik de rand krijg om het subject heen, met uitloop van de ondergrond waar het wolfje op zit. Alleen krijg je dan de irritante schaduw die je niet wegkrijgt (ook niet met prompting en/of weighted values - stickerstyle voegt inherent een shade/shadowdrop toe indertijd van deze versie van het model/textencoder , mits je dubbelop werk doet met inpaint om dat weg te halen, de flow zie ik liever minimalistisch.NEG | 3d render, reflection, perspective error
2) Lijnachtige tekening/concept tekenstijl: de trukendoos is: MODEL
POS | pencil art, pencil line art, (rough sketch, 6b pencil lines, red pencil, blue pencil, black pencil), (correction sketches, correction lines, pencil smudges, drawing smudges:1.4), character design, character draft
Bij de vrouw zie je dat er uitloop is, ze zit op niks, maar de stencils zijn inherent verbonden aan het subject, de vrouw,NEG | simple background, (coloured, inked, colored in:1.4), pencils, skewed perspective, incorrect perspective, (motion lines1:1.12), incomplete lines, drawing tools
3/4) - Hier is de trukendoos: (ook Artsy Vibe net als het wolfje)
POS | (cel shading:1.2), (2D:1.2), (flat drawing:1.2), (flat colors) Dat laatste stuk misschien, misschien niet - onzeker.
Een terugkerend thema lijkt cel shading, flat drawing e.d. te zijn, al gaat die vlieger niet op bij plaatje 2. OF dat model gerelateerd is, tja. Wat wel duidelijk lijkt te worden is dat het origineel een absolute toevalstreffer is, verkregen door de weldadige RNG-goden. Morgen maar verder proberen met dit in het achterhoofd, mits inhoud in betreffend achterhoofd aanwezigNEG | (3D), irregularities, undefined areas, out of frame, loose elements, singular elements, incoherent drawing,
Mocht men willen knoeien, dit kan je droppen in comfyui/StabilityMatrix's Inference: https://drive.google.com/...xLCuakeU/view?usp=sharing
Uiteindelijk kun je het ook een beetje ziens als zo:
![]() | ![]() |
Als mensen willen, een van onze Discordmembers voor Lykos wil graag of mensen zijn workflow willen uitproberen/testen/feedback willen leveren - hij is zelf tevreden, maar hoort graag constructieve kritiek
https://civitai.com/model...s-flux-qwen-z-image-turbo
Alvast bedankt!
[ Voor 10% gewijzigd door SkyStreaker op 28-12-2025 15:16 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
vervang je eerste KSampler node door de KSampler (Advanced) node.
- steps : aantal steps die je altijd gebruikt, bijv 11
- start_at_step : van 0 (origineel) ophogen naar bij 2 of 3 (of hoger)
- end_at_step : 1000 (maakt niet uit als het maar een hoger getal is dan 'steps 11', die is sowieso leading).
Ik krijg hier hele aparte afbeeldingen mee, van cartoon tot bizar, ligt er ook aan wat je onderwerp is.
Lijkt een beetje op "clipskip" die men doorgaans op 2 zet?EverLast2002 schreef op zondag 28 december 2025 @ 17:02:
Voor degenen die ComfyUI gebruiken :
vervang je eerste KSampler node door de KSampler (Advanced) node.
- steps : aantal steps die je altijd gebruikt, bijv 11
- start_at_step : van 0 (origineel) ophogen naar bij 2 of 3 (of hoger)
- end_at_step : 1000 (maakt niet uit als het maar een hoger getal is dan 'steps 11', die is sowieso leading).
Ik krijg hier hele aparte afbeeldingen mee, van cartoon tot bizar, ligt er ook aan wat je onderwerp is.
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Wat ik ervan begrijp is dat clipskip een hele "laag" overslaat i.p.v. stepsSkyStreaker schreef op zondag 28 december 2025 @ 17:41:
[...]
Lijkt een beetje op "clipskip" die men doorgaans op 2 zet?
Grappig, bij mij staat clipskip standaard op -1 ....
En overigens zit de clipskip node niet in de standaard workflow, die node heb ik er zelf bij moeten zetten.
(ik gebruik ComfyUI)
Een uitleg over Clip Skip.EverLast2002 schreef op zondag 28 december 2025 @ 20:14:[...]
Wat ik ervan begrijp is dat clipskip een hele "laag" overslaat i.p.v. steps
Grappig, bij mij staat clipskip standaard op -1 ....
En overigens zit de clipskip node niet in de standaard workflow, die node heb ik er zelf bij moeten zetten.
(ik gebruik ComfyUI)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Mooi man,Yaksa schreef op woensdag 31 december 2025 @ 23:42:
Godt nyttår 2026! Må året bli fantastisk
[Afbeelding]
Ik heb getest en het is een groot drama..
Wat ik deed:
I7 13th gen, 3070ti , 32 gb ram
Draaide:
- Ollama model met open webui
- gaf best nog oke antwoorden en snel
- Pinokio met comfyui
- Dit was ingewikkeld en raar nooit eerder gedaan daarom. Ik had een model gepakt: ragnarok ofzoiets vervolgens koos ik een example paste de prompt negatief en positief maar kon de componetne / windows niet met elkaar verbinden.
Het filmpje was een rendier dat dronk uit water? het leek wel grijs wit en de vorm van het rendier was er ook niet leek meer op ruis en mist met een soort van vorm van een rendier.
Moment dat ik aan ollama wat vroeg via openwebui ging mijn laptop als een gek tekeer en enorm blazen.
Volgens mij doe ik het ontzettend fout lol
edit:
Wat kan ik nu het beste eens proboren als test?
Hier met een 1650m Ti duurde afbeelding genereren met Forge (SDXL) iets van 7 minuten. Met mijn huidige 4070 Super iets van 7 seconden. 32GB RAM doet niet zoveel. Vram lijkt veel meer effect te hebben.R.G schreef op vrijdag 2 januari 2026 @ 21:13:
[...]
Mooi man,
Ik heb getest en het is een groot drama..
Wat ik deed:
I7 13th gen, 3070ti , 32 gb ram
Draaide:Test fimpje gemaakt van 1sec duurde bijna 4-6 uur..
- Ollama model met open webui
- gaf best nog oke antwoorden en snel
- Pinokio met comfyui
- Dit was ingewikkeld en raar nooit eerder gedaan daarom. Ik had een model gepakt: ragnarok ofzoiets vervolgens koos ik een example paste de prompt negatief en positief maar kon de componetne / windows niet met elkaar verbinden.
Het filmpje was een rendier dat dronk uit water? het leek wel grijs wit en de vorm van het rendier was er ook niet leek meer op ruis en mist met een soort van vorm van een rendier.
Moment dat ik aan ollama wat vroeg via openwebui ging mijn laptop als een gek tekeer en enorm blazen.
Volgens mij doe ik het ontzettend fout lol
edit:
Wat kan ik nu het beste eens proboren als test?
Ik draag een rok, wat is jouw excuus?
Bij het begin beginnen en jezelf de basis eigen maken zodat je weet wat je aan het doen bent.R.G schreef op vrijdag 2 januari 2026 @ 21:13:
[...]Ik heb getest en het is een groot drama..
Wat kan ik nu het beste eens proboren als test?
Simpele dingen eerst en dan langzaam elementen toevoegen.
En jezelf inlezen in de materie, ik heb er geloof ik wel 2 maanden over gedaan voordat ik het een beetje doorkreeg, en dat was nog in het begin van AI-beeldgeneratie, toen kon er nog niet zoveel.
Inmiddels kan er veel meer, maar dat maakt het ook wat ingewikkelder.
De makers van Stable Diffusion (en andere ook) hebben genoeg info en voorbeelden op hun websites staan waar je mee kunt beginnen.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ga eerst maar eens beginnen met FramePack en dan Image 2 Video, waarbij het eerste plaatje gebruikt wordt als starterframe. Daarna kan je bijv. FramePack Pro proberen. Ik zou echter eerst beginnen met plaatjes maken, zodat je sturing wat onder de knie krijgt.R.G schreef op vrijdag 2 januari 2026 @ 21:13:
[...]
Mooi man,
Ik heb getest en het is een groot drama..
Wat ik deed:
I7 13th gen, 3070ti , 32 gb ram
Draaide:Test fimpje gemaakt van 1sec duurde bijna 4-6 uur..
- Ollama model met open webui
- gaf best nog oke antwoorden en snel
- Pinokio met comfyui
- Dit was ingewikkeld en raar nooit eerder gedaan daarom. Ik had een model gepakt: ragnarok ofzoiets vervolgens koos ik een example paste de prompt negatief en positief maar kon de componetne / windows niet met elkaar verbinden.
Het filmpje was een rendier dat dronk uit water? het leek wel grijs wit en de vorm van het rendier was er ook niet leek meer op ruis en mist met een soort van vorm van een rendier.
Moment dat ik aan ollama wat vroeg via openwebui ging mijn laptop als een gek tekeer en enorm blazen.
Volgens mij doe ik het ontzettend fout lol
edit:
Wat kan ik nu het beste eens proboren als test?
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Maar zo moet je ook denken met de resolutie. Upscalen is sneller dan genereren maar kent ook zn limitatie. Upscale factor tot 2 kom je meestal nog wel goed mee weg.
Btw hogere video resolutie heeft ook invloed op vram gebruik
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
![]() | ![]() |
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Corel Paint Shop Pro 2023, AI Image Resize 200%, Fotorealistic, Max. Noise Reduction, GPU Acceleration = On.SkyStreaker schreef op zaterdag 3 januari 2026 @ 15:10:
Welke upscaler raden jullie aan? En eventuele settings.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Nu heb ik geen Corel Paint Shop Pro, dus derhalve kan ik hier helaas niet zoveel mee en ik wil niet de Yarrrrrr-kant opYaksa schreef op zaterdag 3 januari 2026 @ 15:22:
[...]
Corel Paint Shop Pro 2023, AI Image Resize 200%, Fotorealistic, Max. Noise Reduction, GPU Acceleration = On.
[Afbeelding]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Wat is de Yarrrrr-kant?SkyStreaker schreef op zaterdag 3 januari 2026 @ 15:39:
[...]Nu heb ik geen Corel Paint Shop Pro, dus derhalve kan ik hier helaas niet zoveel mee en ik wil niet de Yarrrrrr-kant op
Overigens is het programma niet zo duur, 90 euro voor een volledig stand-alone versie, geen abbo o.i.d. En je kunt er ook andere dingen mee doen, watermerken in je afbeeldingen aanbrengen bijv.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik zoek nog wel even naar upscalers icm settings die dichterbij blijven.
Nu iets anders, ben wat moois tegengekomen voor Flux die een zooitje details toevoegt zonder een detail-slider LORA te hoeven gebruiken:
https://huggingface.co/ma...ed-hiT-GmP-HF.safetensors
Gebruik het samen met 1 van deze CLIP-L:
https://civitai.com/models/793605 (al maakt welke Flux CLIP-L niet zo heel veel uit in veel van de gevallen v.z.i.w.):
[ Voor 8% gewijzigd door SkyStreaker op 03-01-2026 16:04 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Ultimate SD UpscaleSkyStreaker schreef op zaterdag 3 januari 2026 @ 15:10:Ben weer even met Z-image bezig geweest en op 832x1216 zijn de natuurlijke resultaten verbluffend (zie vooral de donsharen op haar gezicht!), maar zodra je er een highresfix erover heen gooit, gaat de boel verzachten (zie plaatje 1) - kan door de upscale filter komen of teveel denoise? Welke upscaler raden jullie aan? En eventuele settings.
[Afbeelding] [Afbeelding]
werkt voor mij uitstekend, als je tips wilt hebben over settings laat maar weten.
Welke upscaler gebruik je zelf en met welke settings?SkyStreaker schreef op zaterdag 3 januari 2026 @ 15:10:Ben weer even met Z-image bezig geweest en op 832x1216 zijn de natuurlijke resultaten verbluffend (zie vooral de donsharen op haar gezicht!), maar zodra je er een highresfix erover heen gooit, gaat de boel verzachten (zie plaatje 1) - kan door de upscale filter komen of teveel denoise? Welke upscaler raden jullie aan? En eventuele settings.
[Afbeelding] [Afbeelding]
Dat tooltje is nu alweer zo'n drie jaar oud, in de tussentijd is er nogal wat ontwikkeling geweest.EverLast2002 schreef op zaterdag 3 januari 2026 @ 17:28:[...]
Ultimate SD Upscale
werkt voor mij uitstekend, als je tips wilt hebben over settings laat maar weten.
Probeer SeedVR2 'ns, kun je niet alleen afbeeldingen maar ook video's mee upscalen
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
SeedVR2 ken ik, ook gebruikt. Toch blijf ik bij Ultimate SD Upscale.Yaksa schreef op zaterdag 3 januari 2026 @ 18:35:
[...]
Dat tooltje is nu alweer zo'n drie jaar oud, in de tussentijd is er nogal wat ontwikkeling geweest.
Probeer SeedVR2 'ns, kun je niet alleen afbeeldingen maar ook video's mee upscalen
SeedVR2 geeft zeker mooie resultaten, maar tegelijk ook minder scherpe randen (smudging) dan USDU.
Dan moet je nogal inzoomen op de afbeelding, maar het is waarneembaar.
Denk dat je een AI upscaler hebt gebruikt? Zie namelijk tekst verandering in de 'content' die op de displays staat en dan echt de layout. Dat is natuurlijk niet direct verkeerd maar wel iets om voor jezelf op te letten of niet nou net die "cruciale" details worden veranderd.EverLast2002 schreef op zaterdag 3 januari 2026 @ 21:22:
eerste afbeelding normaal, tweede afbeelding upscaled met USDU (daarna verkleind naar 75%)
[Afbeelding]
[Afbeelding]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Scherp opgemerkt!The-Source schreef op maandag 5 januari 2026 @ 15:52:
[...]
Denk dat je een AI upscaler hebt gebruikt? Zie namelijk tekst verandering in de 'content' die op de displays staat en dan echt de layout. Dat is natuurlijk niet direct verkeerd maar wel iets om voor jezelf op te letten of niet nou net die "cruciale" details worden veranderd.
Nee, geen AI upscaler gebruikt, maar wel een node die 'verkeerd' gekoppeld was in deze workflow.
Dat gaf dus een flinke verandering tijdens upscalen in het eindresultaat .
Ik ben nu bezig met renderen met de node in de goede volgorde.
-edit: wat ook een grote invloed heeft is de 'denoise' setting in de upscaler. Zet je die hoog dan verandert er veel. Dus met beleid gebruiken.
[ Voor 15% gewijzigd door EverLast2002 op 05-01-2026 22:50 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
De tutorials en video's die ik heb gevonden zijn niet afdoende.
Nooit mee gespeeld maar klinkt wel interessant. Ik vind deze tot nu toe prima te volgen. Waar loop jij tegenaan? YouTube: ComfyUI XY Plots It's easier than it looks! <-- Dat is overigens al een 2 jaar oude video, dus het een en ander kan verouderd zijn.EverLast2002 schreef op dinsdag 6 januari 2026 @ 14:35:
Als iemand nog tips of eventueel een link heeft naar een XY plot workflow voor Comfyui Stable Diffusion, dan hou ik me aanbevolen.
De tutorials en video's die ik heb gevonden zijn niet afdoende.
[ Voor 7% gewijzigd door Room42 op 06-01-2026 16:01 ]
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Monzon kanaal ken ik, is wel een goede trouwens, veel van opgestoken.Room42 schreef op dinsdag 6 januari 2026 @ 15:57:
[...]
Nooit mee gespeeld maar klinkt wel interessant. Ik vind deze tot nu toe prima te volgen. Waar loop jij tegenaan? YouTube: ComfyUI XY Plots It's easier than it looks! <-- Dat is overigens al een 2 jaar oude video, dus het een en ander kan verouderd zijn.
Ik zou deze SDXL workflow graag hebben voor Z-Image Turbo, en daar zit nou het probleem.
Hij heeft ook een andere Flux workflow video, met tinyterra nodes. Ook geprobeerd maar werkt niet met ZIT.
At CES this week, NVIDIA is announcing a wave of AI upgrades for GeForce RTX, NVIDIA RTX PRO and NVIDIA DGX Spark devices that unlock the performance and memory needed for developers to deploy generative AI on PC, including:These advancements will allow users to seamlessly run advanced video, image and language AI workflows with the privacy, security and low latency offered by local RTX AI PCs.
- Up to 3x performance and 60% reduction in VRAM for video and image generative AI via PyTorch-CUDA optimizations and native NVFP4/FP8 precision support in ComfyUI.
- RTX Video Super Resolution integration in ComfyUI, accelerating 4K video generations.
- NVIDIA NVFP8 optimizations for the open weights release of Lightricks’ state-of-the-art LTX-2 audio-video generation model.
- A new video generation pipeline for generating 4K AI video using a 3D scene in Blender to precisely control outputs.
- Up to 35% faster inference performance for SLMs via Ollama and llama.cpp.
- RTX acceleration for Nexa.ai’s Hyperlink new video search capability.
Generate Videos 3x Faster and in 4K on RTX PCs
Generative AI can make amazing videos, but online tools can be difficult to control with just prompts. And trying to generate 4K videos is near impossible, as most models are too large to fit on PC VRAM.
Today, NVIDIA is introducing an RTX-powered video generation pipeline that enables artists to gain accurate control over their generations while generating videos 3x faster and upscaling them to 4K — and only using a fraction of the VRAM.
This video pipeline allows emerging artists to create a storyboard, turn it into photorealistic keyframes and then turn them into a high-quality, 4K video. It’s split into three blueprints that artists can mix and match, and modify to their needs:
A 3D object generator that creates assets for scenes.
A 3D-guided image generator that allows users to set their scene in Blender and generate photorealistic keyframes from it.
A video generator that follows a user’s start and end key frames to animate their video, and uses NVIDIA RTX Video technology to upscale it to 4K.
This pipeline is possible by the groundbreaking release of the new LTX-2 model from Lightricks, which is available for download today.
A major milestone for local AI video creation, LTX-2 delivers results that stand toe-to-toe with leading cloud-based models while generating up to 20 seconds of 4K video with impressive visual fidelity. The model features built-in audio, multi-keyframe support and advanced conditioning capabilities enhanced with controllability low-rank adaptations — giving creators cinematic-level quality and control without relying on cloud dependencies.
Under the hood, the pipeline is powered by ComfyUI. Over the past few months, NVIDIA has worked closely with ComfyUI to optimize performance by 40% on NVIDIA GPUs, and the latest update adds support for NVFP4 and NVFP8. All combined, performance is 3x faster and VRAM is reduced by 60% with RTX 50 Series’ NVFP4 format, and performance is 2x faster and VRAM is reduced by 40% with NVFP8.

NVFP4 and NVFP8 checkpoints are now available for some of the top models directly in ComfyUI. These models include LTX-2 from Lightricks, FLUX.1 and FLUX.2 from Black Forest Labs, and Qwen-Image and Z-Image from Alibaba. Download them directly in ComfyUI, with additional model support coming soon.

Once a video clip is generated, videos are upscaled to 4K in seconds using the new RTX Video node in ComfyUI. This upscaler works in real time, sharpens edges and cleans up compression artifacts for a clear final image. RTX Video will be available in ComfyUI next month.
To help users push beyond the limits of GPU memory, NVIDIA has collaborated with ComfyUI to improve its memory offload feature, known as weight streaming. With weight streaming enabled, ComfyUI can use system RAM when it runs out of VRAM, enabling larger models and more complex multistage node graphs on mid-range RTX GPUs.
The video generation workflow will be available for download next month, with the newly released open weights of the LTX-2 Video Model and ComfyUI RTX updates available now.
Of Forge Neo, heeft Z-Image support. Wel een hoop gedoe om het draaiend te krijgen met Sage 2EverLast2002 schreef op dinsdag 6 januari 2026 @ 16:08:
[...]
Monzon kanaal ken ik, is wel een goede trouwens, veel van opgestoken.
Ik zou deze SDXL workflow graag hebben voor Z-Image Turbo, en daar zit nou het probleem.
Hij heeft ook een andere Flux workflow video, met tinyterra nodes. Ook geprobeerd maar werkt niet met ZIT.
Heb deze driver en meest recente cuda toolkit geinstalleerd, maar merk niks in ComfyUI qua tijdswinst of verbetering (Z-Image Turbo, text2image)kazuka schreef op dinsdag 6 januari 2026 @ 20:20:
De nieuwe studio drivers die Nvidia vandaag released heeft bevat verschillende verbeteringen voor o.a. ComfyUI:
[...]
[...]
[Afbeelding]
[...]
[Afbeelding]
[...]
Wel het goede model inladen, anders werkt het idd niet.EverLast2002 schreef op woensdag 7 januari 2026 @ 13:11:[...]Heb deze driver en meest recente cuda toolkit geinstalleerd, maar merk niks in ComfyUI qua tijdswinst of verbetering (Z-Image Turbo, text2image)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik heb dat NVidia bericht een paar keer gelezen maar welk FP8 model bedoelen ze ?!Yaksa schreef op woensdag 7 januari 2026 @ 13:54:
[...]
Wel het goede model inladen, anders werkt het idd niet.
Ik gebruik nu het BF16 Z-Image Turbo model.
Je moet een NV model variant gebruiken. Die zijn speciaal aangepastEverLast2002 schreef op woensdag 7 januari 2026 @ 14:31:
[...]
Ik heb dat NVidia bericht een paar keer gelezen maar welk FP8 model bedoelen ze ?!
Ik gebruik nu het BF16 Z-Image Turbo model.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Van wat ik er uit begrijp is dat je de nieuwste versie van PyTorch moet hebben en modellen NVFP4 en/of NVFP8EverLast2002 schreef op woensdag 7 januari 2026 @ 14:31:[...]Ik heb dat NVidia bericht een paar keer gelezen maar welk FP8 model bedoelen ze ?!
Ik gebruik nu het BF16 Z-Image Turbo model.
Voor video heb je LTX-2 nodig, Nvidia legt hier uit hoe je dat kunt doen.
Hier nog wat meer info over de nieuwste Studio Driver.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Heb je wel de specifieke Nvidia modellen gedownload die ze noemen? Ik moet het ook nog proberen hoor. Die video workflow die ze noemen komt volgende maand pas uit als ik het goed lees.EverLast2002 schreef op woensdag 7 januari 2026 @ 13:11:
[...]
Heb deze driver en meest recente cuda toolkit geinstalleerd, maar merk niks in ComfyUI qua tijdswinst of verbetering (Z-Image Turbo, text2image)
Heb vorige maand toch maar de knip getrokken voor een 5090 en mijn 7900XTX verkocht
Met een 5090 aanschaffen is het wel handig om van tevoren even te bekijken of de CPU geen bottleneck gaat worden. Ook de PSU krijgt aardig wat te verduren, niet elke voeding kan genoeg spanning leveren om dat ding draaiende te houden.kazuka schreef op woensdag 7 januari 2026 @ 14:49:
[...]Heb vorige maand toch maar de knip getrokken voor een 5090 en mijn 7900XTX verkochtIk was bang dat die kaart anders in 2026 2x zo duur zou worden.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Mijn 9950X zal denk ik geen bottleneck zijn maar de CPU doet überhaupt niet veel in ComfyUI toch?Yaksa schreef op woensdag 7 januari 2026 @ 14:57:
[...]
Met een 5090 aanschaffen is het wel handig om van tevoren even te bekijken of de CPU geen bottleneck gaat worden. Ook de PSU krijgt aardig wat te verduren, niet elke voeding kan genoeg spanning leveren om dat ding draaiende te houden.
Die PSU was overigens nog een heel avontuur. Ik had er een 1200W platinum voeding bij gekocht van BeQuiet, de Dark Power 14. Dat ding heeft dus echt een ontwerp fout of een slechte batch, want bij plotselinge power spikes, zoals bij het starten van een ComfyUI workflow, greep de overprotection in en viel de PC uit
Op de Bequiet subreddit bleken er dus meerdere te zijn met exact hetzelfde probleem. Omgeruild voor een Corsair HX1200i en nu geen problemen meer.
call me stupid maar ik kan ze nergens vinden. alle modellen van z image turbo zijn minstens 1 maand oud (die gebruik ik dus).Mars Warrior schreef op woensdag 7 januari 2026 @ 14:47:
[...]
Je moet een NV model variant gebruiken. Die zijn speciaal aangepast
NVidia website:
The sample code for the optimizations is available under the ComfyUI kitchen repository.
en waar is dat dan??
[ Voor 16% gewijzigd door EverLast2002 op 07-01-2026 15:11 ]
https://huggingface.co/bl...LUX.2-dev-NVFP4/tree/main
En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
youtube.com/@hisrep
Thanks voor de link.DeNachtwacht schreef op woensdag 7 januari 2026 @ 15:15:
Hier kun je het nieuwe NVFP4 model van Flux 2 Dev vinden, die draait dus 'al' op 24GB VRAM:
https://huggingface.co/bl...LUX.2-dev-NVFP4/tree/main
En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
Ik gebruik echter Z-Image Turbo, niet Flux2.....
De z image, qwen etc zijn daar allemaal in nvfp te vinden. De z image turbo is maar 4.5GB groot (ipv de normale bf16 van 12.3 GB. Ben benieuwd naar kwaliteitsvrschillen, maar denk dat het voor velen hier dus niet heel interessant is omdat ze toch al een 16GB VRAM hebben?
[ Voor 70% gewijzigd door DeNachtwacht op 07-01-2026 15:20 ]
youtube.com/@hisrep
Als je de text encoder via je cpu laat lopen (device = cpu) zul je wel meer cpu verbruik zien (loopt nu via je gpu = default).DeNachtwacht schreef op woensdag 7 januari 2026 @ 15:15:
Hier kun je het nieuwe NVFP4 model van Flux 2 Dev vinden, die draait dus 'al' op 24GB VRAM:
https://huggingface.co/bl...LUX.2-dev-NVFP4/tree/main
En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
[ Voor 18% gewijzigd door DeNachtwacht op 07-01-2026 15:23 ]
youtube.com/@hisrep
Er zijn er ook die zich geen GPU met 24Gb kunnen veroorloven. Dan kun je alsnog een groot model inladen en dan verplaatst het programma een deel van het model naar het RAM en mag de CPU aan de slag.DeNachtwacht schreef op woensdag 7 januari 2026 @ 15:15:En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
[ Voor 16% gewijzigd door DeNachtwacht op 07-01-2026 15:40 ]
youtube.com/@hisrep
geen enkele snelheidswinst (letterlijk, geen seconde sneller).
Omdat het een ander model is krijg ik wel andere resultaten dan met het bf16 model (fixed seed getest).
Wat nu het voordeel is?
(ik begreep dat het voor alle RTX kaarten gold, ik heb een 3060 12GB).
Heb je ook de nieuwste versie van PyTorch?EverLast2002 schreef op woensdag 7 januari 2026 @ 15:48:
Voorlopige conclusie na enkele afbeeldingen gemaakt te hebben met de nvfp4 z-image turbo :
geen enkele snelheidswinst (letterlijk, geen seconde sneller).
Omdat het een ander model is krijg ik wel andere resultaten dan met het bf16 model (fixed seed getest).
Wat nu het voordeel is?
(ik begreep dat het voor alle RTX kaarten gold, ik heb een 3060 12GB).
Ik zie gebruikers gewoon een compleet nieuwe installatie van ComfyUI doen zodat alle achtergrondprogramma's ook de nieuwste zijn.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Het is natuurlijk een marketing slide van nVidia die de performance winst meet tussen een BF16 en NVFP4 model op een 5090 hè, die hardwarematige ondersteuning voor FP4 heeft 😌EverLast2002 schreef op woensdag 7 januari 2026 @ 15:48:
Voorlopige conclusie na enkele afbeeldingen gemaakt te hebben met de nvfp4 z-image turbo :
geen enkele snelheidswinst (letterlijk, geen seconde sneller).
Omdat het een ander model is krijg ik wel andere resultaten dan met het bf16 model (fixed seed getest).
Wat nu het voordeel is?
(ik begreep dat het voor alle RTX kaarten gold, ik heb een 3060 12GB).
En inderdaad moet je Python en ComfyUI flink bijwerken om überhaupt alles uit dit model te halen.
[ Voor 4% gewijzigd door Mars Warrior op 07-01-2026 16:04 ]
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Heb een upgrade gedaan, Pytorch version 2.9.1+cu128 naar Pytorch version 2.9.1+cu130Yaksa schreef op woensdag 7 januari 2026 @ 16:00:
[...]
Heb je ook de nieuwste versie van PyTorch?
Ik zie gebruikers gewoon een compleet nieuwe installatie van ComfyUI doen zodat alle achtergrondprogramma's ook de nieuwste zijn.
Daarna weer getest en heb nu een winst van 4 seconden per afbeelding.
4 seconden op 40 seconden of op 8 seconden. Oftewel wat is dat op de totale render tijd?EverLast2002 schreef op woensdag 7 januari 2026 @ 16:59:
[...]
Heb een upgrade gedaan, Pytorch version 2.9.1+cu128 naar Pytorch version 2.9.1+cu130
Daarna weer getest en heb nu een winst van 4 seconden per afbeelding.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
van 30sec naar 26sec totaal rendertijdMars Warrior schreef op woensdag 7 januari 2026 @ 17:18:
[...]
4 seconden op 40 seconden of op 8 seconden. Oftewel wat is dat op de totale render tijd?
Volgens mij heb je voor al die optimalisaties een RTX 50xx serie nodig, het is dus niet zozeer de topkaarten maar de nieuwste generatie.Mars Warrior schreef op woensdag 7 januari 2026 @ 16:03:
[...]
Het is natuurlijk een marketing slide van nVidia die de performance winst meet tussen een BF16 en NVFP4 model op een 5090 hè, die hardwarematige ondersteuning voor FP4 heeft 😌
En inderdaad moet je Python en ComfyUI flink bijwerken om überhaupt alles uit dit model te halen.
Hoe heb je dit gedaan? Ik heb net maar weer eens een verse install gedaan en krijg dan 2.8.0+cu129 als geinstalleerde versie.EverLast2002 schreef op woensdag 7 januari 2026 @ 16:59:
[...]
Heb een upgrade gedaan, Pytorch version 2.9.1+cu128 naar Pytorch version 2.9.1+cu130
Daarna weer getest en heb nu een winst van 4 seconden per afbeelding.
momenteel heb ik geïnstalleerd staan:
1
2
3
4
5
| PyTorch: 2.8.0+cu129 CUDA: 12.9 Flash: 2.8.2 Sage: 2.1.1 Triton: 3.5.1 |
[ Voor 40% gewijzigd door DeNachtwacht op 07-01-2026 19:54 ]
youtube.com/@hisrep
(ik gebruik de portable ComfyUI versie, in Windows 10)DeNachtwacht schreef op woensdag 7 januari 2026 @ 17:37:
[...]
Hoe heb je dit gedaan? Ik heb net maar weer eens een verse install gedaan en krijg dan 2.8.0+cu129 als geinstalleerde versie.
momenteel heb ik geïnstalleerd staan:
code:
1 2 3 4 5 PyTorch: 2.8.0+cu129 CUDA: 12.9 Flash: 2.8.2 Sage: 2.1.1 Triton: 3.5.1
ik heb eerst geupdate via de folder 'update' > update_comfyui_and_python_dependencies.bat
daarna in een command prompt het commando geven: python.exe -m pip install --upgrade torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu130
(vanuit de python_embeded folder)
dan nogmaals via de Comfyui Manager (GUI) alles updaten.
alles sluiten en opnieuw ComfyUI starten.
Eventueel snel te checken via:
1
| pip list | Select-String "torch|triton|flash-attn|sageattention"; python --version; python -c "import torch; print('cuda ', torch.version.cuda)" |
youtube.com/@hisrep
alleen torch staat in een lang overzicht : 2.9.1+cu130DeNachtwacht schreef op woensdag 7 januari 2026 @ 20:50:
Dank, en welke versies van bovenstaande (cuda, flash, sage, triton) zijn dan bij jou geinstalleerd?
Eventueel snel te checken via:
code:
1pip list | Select-String "torch|triton|flash-attn|sageattention"; python --version; python -c "import torch; print('cuda ', torch.version.cuda)"
Dit topic is bedoeld voor het kletsen over AI content creation en daarmee ook het tonen van je resultaten. Geef daarbij ook feedback aan wat anderen laten zien en probeer elkaar te helpen om te verbeteren.
GoT is in de basis een discussieplatform en geen tentoonstellingswebsite zoals DeviantArt. Posts met als enige doel het tonen van je plaatjes zijn dus in principe niet gewenst, interactie met de andere gebruikers staat voorop.
/f/image/qiUqwls0Mv5zhzw9s7iknCTY.png?f=fotoalbum_large)
/f/image/I88ovJ9QUuH1Binrw2UDR2HA.png?f=fotoalbum_large)
:strip_exif()/f/image/5EpUosTvUGGxh9sofv91UzQp.jpg?f=fotoalbum_large)
:strip_exif()/f/image/DJuxGmvVNS8sQZluhBjdEi0B.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/kQGw7Z9KG6LJwHYNgoyvEN0f.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/FDscGD7Njhr9CBMiwnhZEzGy.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/BFXiTtTv7jJGWZFAnlviOFZY.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/qPbgj4CWsVaxljFa60nGGI57.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/v9TWjGcbwg3J4C3HyfRhQdcM.jpg?f=fotoalbum_tile)
/f/image/ByIUHRL7rEAWQJa4ylH3JRQQ.png?f=fotoalbum_tile)
/f/image/3WcqAcqg5zm6YdhgTUklHFVU.png?f=fotoalbum_tile)
/f/image/Hro5kfRDcime09dsUYslMcJB.png?f=fotoalbum_large)
:strip_exif()/f/image/XxB0pQlkORF7UklfOGJJ845J.jpg?f=fotoalbum_large)
/f/image/xjAyB0ajcXr7jVorIT9dBLwh.png?f=fotoalbum_large)
/f/image/RKX2OGhKg2q3d5Wj3H5PzTqF.png?f=fotoalbum_tile)
/f/image/OzRLrsdrgyHn9DwwKP0VDnqu.png?f=fotoalbum_tile)
/f/image/BqoaxlcWjnHCtnbOrhDVGMvR.png?f=fotoalbum_tile)
/f/image/0BchF530mFEcPhoGhCrJY8wW.png?f=fotoalbum_tile)
/f/image/YZOOiGTJpJ3EbDu7tI0ZVj8E.webp?f=fotoalbum_tile)
:strip_exif()/f/image/4LOx3tt3Pg1zY3lEy7f55CFc.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/tDyColtMJM4SnRJRjVYeDMkt.jpg?f=fotoalbum_large)
:strip_exif()/f/image/AlUF1AVNsDQNhy2a8USmzKaB.jpg?f=fotoalbum_large)
/f/image/OrMCtK6f5xJ04AoXNiO9Apt2.png?f=fotoalbum_tile)
/f/image/35jIBvBAas2TmoFsrfk9GEz7.png?f=fotoalbum_tile)
/f/image/wJaY15DuS7Y0Q2nsMCSS1YkN.png?f=fotoalbum_large)
/f/image/Xp5CKj6eDC5f3ddBMDlkcEa1.png?f=fotoalbum_large)