Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Is dat dan iets wat specifiek door het model komt of is het toeval? Het leek voor mij wel een patroon te zijn.CR2032 schreef op zaterdag 2 augustus 2025 @ 23:34:
@Gonadan Ja, die eerste heeft vast een pilletje geslikt, of hij was bang voor die bumblebee.
Nu ik op groot scherm kijk is de algehele indruk dat #2 realistischer over komt. Zeker niet perfect maar bij #1 heb ik sneller de AI-vibe.CR2032 schreef op dinsdag 5 augustus 2025 @ 16:47:
Ik was wel benieuwd hoe de nieuwe Flux.1-KreaDev zich verschilt met ChatGPT. Met dezelfde prompt, zonder nabewerking of hulp van lora's of wat dan ook.
Wie is wie. Welke afbeelding is het meest realistisch en volgt de prompt het beste.
Make a realistic close-up photo of the face of a woman with long blond hair and some eye wrinkles, age late thirties, her hair and skin is a bit of a mess due to the sun and the salty water. She is bowing down to the camera standing on a ship, background the ocean
[Afbeelding]
[Afbeelding]
spoiler:1 = ChatGPT
2 = Flux.1-KreaDev / dpmpp_2m_sde_gpu, simple, 30 steps.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
#2 is een beetje te hard, als die wat zachter belicht zou worden, zou die veel beter zijn, denk ik.Gonadan schreef op vrijdag 8 augustus 2025 @ 13:52:
[...]
Nu ik op groot scherm kijk is de algehele indruk dat #2 realistischer over komt. Zeker niet perfect maar bij #1 heb ik sneller de AI-vibe.
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Dat kan aan de sampler liggen. Euler vind ik i.h.a. rustiger ogen met gezichten.Room42 schreef op vrijdag 8 augustus 2025 @ 14:09:
[...]
#2 is een beetje te hard, als die wat zachter belicht zou worden, zou die veel beter zijn, denk ik.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Ja, die samplers moet ik me ook nog eens goed in verdiepen (lees: Hoe weet ik welke ik moet gebruiken en met welke scheduler). Ik ben trouwens toch overstag gegaan en heb nu een RTX3090 gekocht en die is, inderdaad, aanzienlijk sneller dan de Radeon RX 6700 XT.Mars Warrior schreef op vrijdag 8 augustus 2025 @ 14:29:
[...]
Dat kan aan de sampler liggen. Euler vind ik i.h.a. rustiger ogen met gezichten.
[ Voor 8% gewijzigd door Room42 op 08-08-2025 14:43 ]
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Klopt, qua belichting ben ik er geen fan van. Maar ook bij foto's heb je vaak abominabele belichting dus dat paste juist wel in het realistische.Room42 schreef op vrijdag 8 augustus 2025 @ 14:09:
[...]
#2 is een beetje te hard, als die wat zachter belicht zou worden, zou die veel beter zijn, denk ik.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Uit persoonlijke interesse, wat voor snelheidswinst hebben we het dan over?Room42 schreef op vrijdag 8 augustus 2025 @ 14:41:
[...]
Ja, die samplers moet ik me ook nog eens goed in verdiepen (lees: Hoe weet ik welke ik moet gebruiken en met welke scheduler). Ik ben trouwens toch overstag gegaan en heb nu een RTX3090 gekocht en die is, inderdaad, aanzienlijk sneller dan de Radeon RX 6700 XT.![]()
Ik was van een GTX1650 (laptop, 4GB Vram) naar een RTX4070 Super gegaan (12GB Vram) en die ging met SD1.5 van 15 seconde per image naar ~1 seconde per image. En toen kwam Flux en ging ik naar 30 seconde per image
Hier overigens ook aan het spelen gegaan met het OSS model van OpenAI, die doet het ook behoorlijk. Moet wel de context vrij hoog zetten als ik hele programma's ga genereren maar dat doet ie prima
Ik draag een rok, wat is jouw excuus?
Dan denk ik dat je die tweedehands gekocht hebt, want voor de nieuwprijs (zo'n 1500 euro) heb je tegenwoordig ook een RTX 5080. Weliswaar met 8Gb minder VRAM maar wel met de nieuwe architectuur, snel GDDR7 Vram en een veel hogere bandbreedte.Room42 schreef op vrijdag 8 augustus 2025 @ 14:41:
[...]Ja, die samplers moet ik me ook nog eens goed in verdiepen (lees: Hoe weet ik welke ik moet gebruiken en met welke scheduler). Ik ben trouwens toch overstag gegaan en heb nu een RTX3090 gekocht en die is, inderdaad, aanzienlijk sneller dan de Radeon RX 6700 XT.![]()
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Wanneer je lokaal draait dan is de belichting vrij goed in te stellen via de prompt.Gonadan schreef op vrijdag 8 augustus 2025 @ 14:54:
[...]Klopt, qua belichting ben ik er geen fan van. Maar ook bij foto's heb je vaak abominabele belichting dus dat paste juist wel in het realistische.
Termen (dit zijn er maar een paar, er zijn er nog veel meer) in de prompt zoals ambient lighting, studio lighting, soft atmospheric lighting, sunlight, god rays, backlit, high (or low) contrast, sharp shadows en versterkingen/verzwakkingen daarvan worden doorgaans goed verwerkt in de afbeelding zelf.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ja, uiteraard.Yaksa schreef op vrijdag 8 augustus 2025 @ 16:34:
[...]
Dan denk ik dat je die tweedehands gekocht hebt [...]
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Ik ben de benchmark vergeten op te slaan, maar mijn test-workflow in ComfyUI ging van 68 seconden naar iets van 13.Felicia schreef op vrijdag 8 augustus 2025 @ 16:32:
[...]
Uit persoonlijke interesse, wat voor snelheidswinst hebben we het dan over?
Ik was van een GTX1650 (laptop, 4GB Vram) naar een RTX4070 Super gegaan (12GB Vram) en die ging met SD1.5 van 15 seconde per image naar ~1 seconde per image. En toen kwam Flux en ging ik naar 30 seconde per image
Hier overigens ook aan het spelen gegaan met het OSS model van OpenAI, die doet het ook behoorlijk. Moet wel de context vrij hoog zetten als ik hele programma's ga genereren maar dat doet ie prima
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Als hulp gebruik ik vaak deze tabel. De sampler maakt vaak veel meer uit dan verwacht. Zowel in compositie als belichting. De invloed van de prompt is maar beperkt en heb je anders ControlNet of Lora's nodig. De laatste vaak weer met beperkingen aan de samplers.Room42 schreef op vrijdag 8 augustus 2025 @ 14:41:
[...]
Ja, die samplers moet ik me ook nog eens goed in verdiepen (lees: Hoe weet ik welke ik moet gebruiken en met welke scheduler). Ik ben trouwens toch overstag gegaan en heb nu een RTX3090 gekocht en die is, inderdaad, aanzienlijk sneller dan de Radeon RX 6700 XT.![]()
Hierdoor ben ik veel vaker heun en heunpp2 als sampler gaan gebruiken.
In de link staat de ComfyUI workflow zodat je de vergelijking gemakkelijk zelf kunt maken, ook voor andere diffusion modellen.
https://civitai.com/artic...pler-scheduler-comparison

Dat je in de prompt de belichting niet zou kunnen regelen is meer een kwestie van een goede prompt leren schrijven dan dat het via de prompt beperkt zou zijn.CR2032 schreef op vrijdag 8 augustus 2025 @ 16:58:
[...]Zowel in compositie als belichting. De invloed van de prompt is maar beperkt en heb je anders ControlNet of Lora's nodig. De laatste vaak weer met beperkingen aan de samplers.
Alle tutorials geven juist aan dat het in de prompt beschrijven van de belichting essentieel is voor het verkrijgen van een goede afbeelding, voorbeeldje.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
En ook dit is slechts weer een deel van de waarheid.CR2032 schreef op vrijdag 8 augustus 2025 @ 16:58:
[...]
Als hulp gebruik ik vaak deze tabel. De sampler maakt vaak veel meer uit dan verwacht. Zowel in compositie als belichting. De invloed van de prompt is maar beperkt en heb je anders ControlNet of Lora's nodig. De laatste vaak weer met beperkingen aan de samplers.
Hierdoor ben ik veel vaker heun en heunpp2 als sampler gaan gebruiken.
In de link staat de ComfyUI workflow zodat je de vergelijking gemakkelijk zelf kunt maken, ook voor andere diffusion modellen.
https://civitai.com/artic...pler-scheduler-comparison
[Afbeelding]
Ik kan met identieke instellingen, maar enkel door het wijzigen van de clip encoders totaal, maar dan ook totaal andere afbeeldingen krijgen.
De prompt is natuurlijk nog steeds zichtbaar, maar je kunt van real life foto van een sexy vrouw gaan naar een stripboek figuur.
Ik kan soms voorbeelden van civitai totaal niet reproduceren ondanks alle informatie als prompt, seed etc. Totdat ik met de clip encoders ga spelen 😮
Er zijn gewoon heel, heel veel variabelen die de uiteindelijke output bepalen.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Je kunt met de prompt wel de belichting regelen maar dat werkt alleen beperkt.Yaksa schreef op vrijdag 8 augustus 2025 @ 17:10:
[...]
Dat je in de prompt de belichting niet zou kunnen regelen is meer een kwestie van een goede prompt leren schrijven dan dat het via de prompt beperkt zou zijn.
Alle tutorials geven juist aan dat het in de prompt beschrijven van de belichting essentieel is voor het verkrijgen van een goede afbeelding, voorbeeldje.
Want je kunt nog zo mooi en uitgebreid een prompt hebben geschreven, dan heeft in dit geval een verkeerde sampler of scheduler meer effect zodat het resultaat alsnog nergens op lijkt dan wat de prompt aangeeft.
@Mars Warrior Inderdaad, of text encoders, lora's, custom nodes die tegen elkaar werken. Het is steeds optimale combinatie vinden wat goed met elkaar werkt. Als je zelf vergelijkingen gaat maken krijg je er vanzelf meer gevoel voor wat beter met elkaar werkt en wat niet.
Ik heb de ComfyUI workflow sampler scheduler vergelijker nu met met Flux.1-Krea-Dev uitgeprobeerd. Deze ComfyUI workflow heeft ook een fraaie opbouw, goed voor de inspiratie.
Met alleen het veranderen van de sampler of de scheduler krijg je zoveel verschillen.
cinematic 18k film still, a young male wearing glowing angelic wings, wearing a vintage gold shirt and blue jeans. a futuristic blue sign centered over his face spells Compare me. He is standing in an English garden in full daylight




[ Voor 3% gewijzigd door CR2032 op 08-08-2025 22:40 ]
Heb je wel eens een tutorial prompt building gevolgd, bijvoorbeeld waarvan ik de link gaf?CR2032 schreef op vrijdag 8 augustus 2025 @ 22:38:
[...]Je kunt met de prompt wel de belichting regelen maar dat werkt alleen beperkt.
Want je kunt nog zo mooi en uitgebreid een prompt hebben geschreven, dan heeft in dit geval een verkeerde sampler of scheduler meer effect zodat het resultaat alsnog nergens op lijkt dan wat de prompt aangeeft.
Bij zowat alle modellen die uitkomen geeft de maker ervan zelf al aan welke sampler en/of scheduler je het beste zou kunnen gebruiken bij dat specifieke model. Dan kun je wel andere gaan gebruiken (en die zullen ook andere resultaten geven) maar dan gebruik je dat model gewoon niet optimaal. De maker(s) hebben dat allemaal al uitentreuren getest, dus waarom daarvan afwijken?
Zoals een bekend persoon eens zei: 'The ability for a person to change his mind in the face of proven evidence is the number one sign of intelligence'.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Alles is weer anders, de antwoorden, de plaatjes, de kwaliteit en daarmee ook de bruikbaarheid.
Maar goed. OpenAI verliest nog steeds miljarden per jaar, dus zo'n nieuw GPT-5 model, dat volgens sommigen niets meer is als een router die de "goedkoopste" route selecteert is vanuit de bedrijfsgedachte niet zo vreemd.
Ik merk voornamelijk dus dat de Python code (Python GPT 5 model) anders is, en dat het verbeteren van de prompts om leuke plaatjes in ComfyUI of ChatGPT zelf te maken een stuk slechter/moeizamer gaat dan met 4o.
Was ik net een beetje gewend na de omschakeling in April met 4o wat ik anders moet doen, kan ik weer beginnen
Ik experimenteer ook wat met GPT-OSS om de prompt te verbeteren, maar dat is met slechts 16GB VRAM wel wat gedoe: ik moet elke keer een load/unload doen om VRAM vrij te maken om het plaatje te maken in ComfyUI.
Het blijft kloten vind ik, zo'n rolling release van je tools in de cloud waar je geen enkele zeggenschap over hebt. Stel je voor dat het "gedrag" van je auto op zo'n manier - 's nachts - wijzigt. Dat zou chaos op de weg worden.
En ja, het heeft mij in de afgelopen tijd ook veel tijdwinst en plezier opgeleverd. Leuk om dingen "samen" te bedenken en maken
Maar ik zou wilen dat alles een beetje consistenter is. In de afgelopen posts is al duidelijk geworden hoeveel variabelen er zijn om een plaatje in ComfyUI exact te reproduceren.
In onderstaande plaatjes is alles identiek, behalve de clip/text encoders. Gelukkig is aan de hand van de png de metadata van ComfyUI altijd beschikbaar voor reproductie, maar dit is wel wat ik ervaar met nieuwe of verbeterde versies van ChatGPT. Alleen dan kan ik er niets meer aan veranderen.
/f/image/Zjyihu8S2tCAnr2cdF7m4nCz.png?f=fotoalbum_large)
/f/image/UC9F2HvwPsUlN5IdDebAyWRf.png?f=fotoalbum_large)
Ik had me echter nooit gerealiseerd dat het verschil zo groot kan zijn. Blijkbaar verandert er iets fundamenteel aan de prompt die eruit komt als basis om het plaatje te maken.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Wil je consistent output hebben met technieken die je zelf heb geleerd dan zal je toch of zelf meten hosten. Of wellicht als je het maar af en toe gebruikt kunnen kijken naar https://www.runpod.io/pricing hier kan je per uur een "VM" huren met nvidia gpu naar keuze. En ja zelf een H200 is mogelijk
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Je hebt de limiet van het Free-plan voor GPT-5. bereikt
Je hebt GPT-5 nodig om door te gaan met deze chat omdat er een bijlage is. Je limiet wordt gereset na 16:10.
Lekker is dat. Ik kan dus niet verder. Er wordt geen downgrade uitgevoerd. Het is gewoon over en uit tot 16:10u.
Zelfs het starten van een nieuwe chat en daarin de ComfyUI workflow plakken werkt niet: die wordt direct geblokkeerd.
Ik snap nu dat sommige mensen GPT-5 een bezuinigingsoperatie noemen
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Mooi spul. Een 5090 is maar $0,89/uur. Dat is best goedkoop als je maar af en toe wat doet. Maar je moet dus wel elke keer toch je eigen VM opzetten? Ik bedoel data en ComfyUI enzo installeren? Dat is me nog niet helemaal duidelijk.The-Source schreef op zaterdag 9 augustus 2025 @ 11:25:
@Mars Warrior met 16GB VRAM is het meeste wel lokaal te draaien alleen zal je soms wel quantized models moeten kiezen. Waar je met 24GB VRAM vaak nog wel weg kan komen zal je met 16GB vaker een iets kleiner model moeten kiezen. En als een Q8 model bijvoorbeeld wel past dan ga je echt niet veel inleveren op kwaliteit.
Wil je consistent output hebben met technieken die je zelf heb geleerd dan zal je toch of zelf meten hosten. Of wellicht als je het maar af en toe gebruikt kunnen kijken naar https://www.runpod.io/pricing hier kan je per uur een "VM" huren met nvidia gpu naar keuze. En ja zelf een H200 is mogelijk
Volgens mij maken sommige Civitai gebruikers ook hiervan gebruik om Loras te trainen. Kost dan maar een tiental dollars. Daar kan geen thuisconfiguratie tegenop natuurlijk. Alleen als je er veel gebruik van maakt dan wordt het erg duur. Dan kost een 5090 VM huren op jaarbasis een stuk meer dan dat je een 5090 koopt.
Mijn 4060 Ti 16GB kan inderdaad goed met Q8 en fp8 versies omgaan: dat past allemaal mooi. Meer performance en VRAM zou wel mooi zijn, zeker met de nieuwere modellen: die vragen toch wel wat meer. Ook als ik grotere plaatjes wil maken dan wordt alles enorm traag door het tekort aan VRAM: de driver schakelt dan gedeeld VRAM erbij, wat natuurlijk niet echt snel is.
Ben dus benieuwd naar de 24GB varianten van de 5070 Ti die eind dit jaar zouden komen. Zal wel flink aan de prijs zijn, maar wel een heel stuk sneller dan mijn 4060 Ti 16GB.
De meeste LLM's en plaatjes generatoren gaan nu vaak uit van varianten voor 16GB. Als er meer kaarten met 24GB komen zullen er ook hopelijk versies komen die daarop getuned zijn. Dus ook meer parameters.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Ik heb er zelf geen ervaring mee, zie wel diverse AI youtube kanalen af en toe over runpod praten en die bieden dan ook een soort "install" script aan die dus comfyui installeert of al een soort pre-build pod aanbieden. Wellicht kan je ook een pod op sleep mode zetten dat weet ik niet. En denk ook wel dat runpod niet de enige is in de markt. Ik wou alleen aangeven dat afhankelijk van je usecase het wellicht een optie zou kunnen zijn ipv zelf alles aanschaffen voor die "ene keer"Mars Warrior schreef op zaterdag 9 augustus 2025 @ 11:40:
[...]
Mooi spul. Een 5090 is maar $0,89/uur. Dat is best goedkoop als je maar af en toe wat doet. Maar je moet dus wel elke keer toch je eigen VM opzetten? Ik bedoel data en ComfyUI enzo installeren? Dat is me nog niet helemaal duidelijk.
Volgens mij maken sommige Civitai gebruikers ook hiervan gebruik om Loras te trainen. Kost dan maar een tiental dollars. Daar kan geen thuisconfiguratie tegenop natuurlijk. Alleen als je er veel gebruik van maakt dan wordt het erg duur. Dan kost een 5090 VM huren op jaarbasis een stuk meer dan dat je een 5090 koopt.
Mijn 4060 Ti 16GB kan inderdaad goed met Q8 en fp8 versies omgaan: dat past allemaal mooi. Meer performance en VRAM zou wel mooi zijn, zeker met de nieuwere modellen: die vragen toch wel wat meer. Ook als ik grotere plaatjes wil maken dan wordt alles enorm traag door het tekort aan VRAM: de driver schakelt dan gedeeld VRAM erbij, wat natuurlijk niet echt snel is.
Ben dus benieuwd naar de 24GB varianten van de 5070 Ti die eind dit jaar zouden komen. Zal wel flink aan de prijs zijn, maar wel een heel stuk sneller dan mijn 4060 Ti 16GB.
De meeste LLM's en plaatjes generatoren gaan nu vaak uit van varianten voor 16GB. Als er meer kaarten met 24GB komen zullen er ook hopelijk versies komen die daarop getuned zijn. Dus ook meer parameters.
Runpod heeft er ook een blog post van: https://www.runpod.io/articles/guides/comfy-ui-flux
Yes. ComfyUI allows you to save workflow graphs as JSON files, which you can download for later or share. On Runpod, you can also attach a persistent storage volume to your pod to save models, outputs, or the entire workspace between sessions. This means you won’t lose your work when you stop the pod – next time you deploy, your custom nodes, images, and workflows can be loaded from the volume. (You can always download important images to your local machine too.)
[ Voor 10% gewijzigd door The-Source op 09-08-2025 11:48 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Sommige mensen experimenteren liever zelf dan dat ze vooral handleidingen volgen.Yaksa schreef op vrijdag 8 augustus 2025 @ 22:58:
[...]
Heb je wel eens een tutorial prompt building gevolgd, bijvoorbeeld waarvan ik de link gaf?
Bij zowat alle modellen die uitkomen geeft de maker ervan zelf al aan welke sampler en/of scheduler je het beste zou kunnen gebruiken bij dat specifieke model. Dan kun je wel andere gaan gebruiken (en die zullen ook andere resultaten geven) maar dan gebruik je dat model gewoon niet optimaal. De maker(s) hebben dat allemaal al uitentreuren getest, dus waarom daarvan afwijken?
Zoals een bekend persoon eens zei: 'The ability for a person to change his mind in the face of proven evidence is the number one sign of intelligence'.
Eigen initiatief, inzet, buiten de gebaande paden gaan, off piste, etc. Different strokes for different folks.
"Hierdoor ben ik veel vaker heun en heunpp2 als sampler gaan gebruiken."
deze twee samplers zijn berucht vanwege hun lange render tijd.
met euler, dpmpp_2m, deis, etc zit ik op 1:50 en met heun(pp2) ga ik naar een dikke 5:30
toch wel een dingetje als je gaat renderen.
en helaas krijg ik nunchaku nog niet werkend....
Heun doet er inderdaad langer over, het wordt een verbeterde Euler genoemd. Euler beta is weer een verdere verbetering van Euler. Er wordt met de Heun-methode veel meer doorgerekend dan Euler, die meer met aannames werkt. Je kunt met Heun vaak wel een lager aantal steps CFG kiezen voor een kortere render tijd. Als je van wiskunde houdt: Wikipedia: Heun's methodEverLast2002 schreef op zondag 10 augustus 2025 @ 22:38:
@CR2032
"Hierdoor ben ik veel vaker heun en heunpp2 als sampler gaan gebruiken."
deze twee samplers zijn berucht vanwege hun lange render tijd.
met euler, dpmpp_2m, deis, etc zit ik op 1:50 en met heun(pp2) ga ik naar een dikke 5:30
toch wel een dingetje als je gaat renderen.
en helaas krijg ik nunchaku nog niet werkend....
Je kiest het beste een sampler/scheduler op het type afbeelding die je wilt maken.
Heun en de nieuwere heunpp2 zijn vooral goed voor gedetailleerde scherpe afbeeldingen. Ik maak vaak met een vergelijkende workflow tegelijk een paar testjes.
Zie de verschillen, verder is alles hetzelfde gebleven. Let op de kool.
Flux.1-Krea-Dev
Heun

Euler

Euler beta

[ Voor 3% gewijzigd door CR2032 op 11-08-2025 18:03 ]
"Je kunt met Heun vaak wel een lagere CFG kiezen voor een kortere render tijd."
mijn CFG staat standaard op 1.0, moet ik die lager zetten?
(ik gebruik ComfyUI flux).
Inderdaad is heun in jouw voorbeelden wel mooier.
Oeps, ik bedoel aantal steps. Ik heb de post aangepast.EverLast2002 schreef op maandag 11 augustus 2025 @ 17:42:
@CR2032
"Je kunt met Heun vaak wel een lagere CFG kiezen voor een kortere render tijd."
mijn CFG staat standaard op 1.0, moet ik die lager zetten?
(ik gebruik ComfyUI flux).
Inderdaad is heun in jouw voorbeelden wel mooier.
Met Flux houdt je de CFG altijd op 1, negative prompts kent deze niet.
Dat klopt, maar je kunt in ComfyUI wel de FluxGuidance instellen, wat in Forge Destilled CFG heet.CR2032 schreef op maandag 11 augustus 2025 @ 18:02:
[...]Met Flux houdt je de CFG altijd op 1, negative prompts kent deze niet.
Hiermee bepaal je hoe nauwkeurig de prompt gevolgd gaat worden. De waarde (tussen 0.0 en 100.0) die je zou moeten gebruiken is ook enigszins model (en prompt) afhankelijk en ook afhankelijk van de text encoder die je gebruikt, een vaste waarde is er niet. Sommige makers van modellen geven aan welke waarde de meest optimale resultaten oplevert, bij andere moet je gewoon even experimenteren om tot een goed resultaat te komen.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Het viel me op dat met het model flux-krea-dev (waar die geit afbeeldingen mee zijn gemaakt)Yaksa schreef op maandag 11 augustus 2025 @ 18:45:
[...]
Dat klopt, maar je kunt in ComfyUI wel de FluxGuidance instellen, wat in Forge Destilled CFG heet.
Hiermee bepaal je hoe nauwkeurig de prompt gevolgd gaat worden. De waarde (tussen 0.0 en 100.0) die je zou moeten gebruiken is ook enigszins model (en prompt) afhankelijk en ook afhankelijk van de text encoder die je gebruikt, een vaste waarde is er niet. Sommige makers van modellen geven aan welke waarde de meest optimale resultaten oplevert, bij andere moet je gewoon even experimenteren om tot een goed resultaat te komen.
er geen flux guidance meer aanwezig is. Check de officiele workflow maar eens: Workflow > Browse Templates
Ik heb getest met een workflow inclusief en exclusief flux guidance, en blijkbaar staat ie zonder die node op 3.5 wat de standaard is.
Ik dacht het zo opgepikt te hebben, maar aangezien ik niet met ComfyUI werk zou het kunnen dat het alleen in de reguliere FLUX modellen in te stellen is.EverLast2002 schreef op maandag 11 augustus 2025 @ 20:16:[...]Het viel me op dat met het model flux-krea-dev (waar die geit afbeeldingen mee zijn gemaakt)
er geen flux guidance meer aanwezig is. Check de officiele workflow maar eens: Workflow > Browse Templates
Ik heb getest met een workflow inclusief en exclusief flux guidance, en blijkbaar staat ie zonder die node op 3.5 wat de standaard is.
Overigens las ik ergens dat FLUX KREA iets beter werkt op een guidance van 4.0.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Klopt. Ik gebruik ook geen flux guidance, het zit ook niet meer in de standaard Flux-Krea-Dev workflow van ComfyUI.EverLast2002 schreef op maandag 11 augustus 2025 @ 20:16:
[...]
Het viel me op dat met het model flux-krea-dev (waar die geit afbeeldingen mee zijn gemaakt)
er geen flux guidance meer aanwezig is. Check de officiele workflow maar eens: Workflow > Browse Templates
Ik heb getest met een workflow inclusief en exclusief flux guidance, en blijkbaar staat ie zonder die node op 3.5 wat de standaard is.
Met Flux in het algemeen is het vooral veel zelf experimenteren wat het beste werkt voor de stijl die je wilt bereiken. Er zijn geen standaard vaste waarden die altijd en voor alles het beste werken.
Leuk gedaan. Kun je ook aangeven waar we de programma's kunnen downloaden waarmee je dit gedaan hebt en ook hoe de prompt voor dit filmpje er uit ziet?
Misschien ook handig om te melden welke configuratie (CPU + GPU) er in jouw PC steekt.
Op die manier kunnen anderen die geïnteresseerd zijn misschien ook 'ns wat proberen.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
je gebruikt sampler heun(pp), welke scheduler gebruik je hierbij?
ik ben inmiddels ook met heun(pp) aan het renderen gegaan.
Ik ben sinds kort aan het spelen met wan2gp: https://github.com/deepbeepmeep/Wan2GP (ik draai het op linux). De installatie is met copy/past van voormelde site aan de gang te krijgen. Ik draai het met een 5060ti 16GB, op 480p zie ik met nvtop het geheugengebruik niet boven de 8GB uitkomen maar ik heb het niet geprobeerd op een gpu met minder geheugen.Yaksa schreef op woensdag 13 augustus 2025 @ 13:10:
[...]
Leuk gedaan. Kun je ook aangeven waar we de programma's kunnen downloaden waarmee je dit gedaan hebt en ook hoe de prompt voor dit filmpje er uit ziet?
Misschien ook handig om te melden welke configuratie (CPU + GPU) er in jouw PC steekt.
Op die manier kunnen anderen die geïnteresseerd zijn misschien ook 'ns wat proberen.
De prompt was "a sheep skateboarding on the streets of amsterdam". De resultaten met die prompt kunnen erg verschillen. Andere voorbeelden van wat deze prompt opleverde:
:gifsicle():strip_exif()/f/image/OfmERczoq0bzb0XzkfuODEcG.gif?f=user_large)
seed67332234
:gifsicle():strip_exif()/f/image/pGh2Y6e9dCm8nFx5JOlPxYC2.gif?f=user_large)
seed41551902
Bij het filmpje van mijn vorige bericht was de seed 34428851.
Output van de software is mp4 (voor filmpjes), met ffmpeg heb ik de mp4 bestanden naar gif omgezet om ze hier te kunnen plaatsen.
edit: vorige filmpje was de prompt "a sheep rollerskating on the streets of amsterdam".
[ Voor 6% gewijzigd door femmer op 13-08-2025 15:02 ]
(Je = generiek, ik ken je niet)
[ Voor 9% gewijzigd door Deleon78 op 13-08-2025 15:17 ]
Ja, de credits gaan volledig naar het wan-team en deepbeepmeep. Het enige wat ik heb gedaan is een simpele prompt invullen, op de "generate" button drukken en geduld hebben. Dingen als het camerawerk, de belichting en de physics vind ik erg overtuigend bij de wan-modellen. Je kunt er ook heel eenvoudig foto's mee tot leven brengen (image to video). Erg leuk speelgoed!Deleon78 schreef op woensdag 13 augustus 2025 @ 15:17:
Zo op mn mobiel is het toch wel erg gaaf resultaatecht mooi wat je als leek (dwz niet een designer, cameraman, editor etc) even snel in elkaar kan zetten.
(Je = generiek, ik ken je niet)
Met Simple. Normal, Beta werken vaak ook goed. Karras geeft vaak teveel ruis door de interne generator.EverLast2002 schreef op woensdag 13 augustus 2025 @ 13:11:
@CR2032
je gebruikt sampler heun(pp), welke scheduler gebruik je hierbij?
ik ben inmiddels ook met heun(pp) aan het renderen gegaan.
Het aantal steps verminder ik vaak niet, die ene minuut extra maakt ook niet zoveel uit.
Deze is ook met Heun / Simple

Maar nog steeds selderijloof aan de worteltjes......CR2032 schreef op woensdag 13 augustus 2025 @ 19:13:
[...]Met Simple. Normal, Beta werken vaak ook goed. Karras geeft vaak teveel ruis door de interne generator.
Het aantal steps verminder ik vaak niet, die ene minuut extra maakt ook niet zoveel uit.
Deze is ook met Heun / Simple
[Afbeelding]
Da's weer het jammere van AI op dit moment, wanneer men een realistisch beeld wil laten maken en het totale plaatje wordt wat ingewikkelder dan blijven dit soort 'vergissingen' storend.
Maar voorlopig zullen we het ermee moeten doen.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Wel prompt gestuurd uiteraard, om de sfeer en compositie als geheel te bepalen, en o.a. met behulp van namen van kunstschilders en/of grafisch kunstenaars, mag AI (FLUX.dev) dan aan de slag.
Zo heb ik een prompt geschreven die heel aparte beelden oplevert en waar de resolutie waarin je genereert deels sturend is naar wat de uiteindelijke afbeelding wordt. Hierbij ligt het optimum voor deze prompt ruwweg op anderhalve megapixel per afbeelding.
Omgerekend kom je dan op de volgende tabel uit:
Vert. Res. Horiz. Res. Nr. of pixels
800 1800 1440000
900 1600 1440000
1000 1440 1440000
1100 1310 1441000
1200 1200 1440000
1310 1100 1441000
1440 1000 1440000
1600 900 1440000
1800 800 1440000
Een voorbeeld van generatie waarbij de horizontale resolutie flink hoger is dan de verticale levert voornamelijk landschappen met gebouwen op:
:strip_exif()/f/image/iUztEqt1QvtdEtOoZj91r2cz.jpg?f=fotoalbum_large)
Een voorbeeld waarbij horizontale en verticale resolutie gelijk zijn levert meer stadsgezichten met ook wat personen op:
:strip_exif()/f/image/cHFAwRUryYMhQaBKdWkBJAFK.jpg?f=fotoalbum_large)
En een voorbeeld waarbij de verticale resolutie veel hoger is dan de horizontale levert meestal heel aparte torens op:
:strip_exif()/f/image/JroT4Fo8h7D1L6hCJLSHuuL3.jpg?f=fotoalbum_large)
Afbeeldingen zijn (zoals altijd) klikbaar voor hoge resolutie
Af en toe komen er ook wat meer surrealistische beelden van doodshoofden, rare dieren en onmogelijke constructies voorbij wanneer je wat meer iteraties doet en heel soms een onscherpe afbeelding.
Aanpassen doe je bijvoorbeeld door de naam van architect (Le Corbusier bijvoorbeeld) toe te voegen (bij Architecture photography) en dan kun je de stijl van de gebouwen enigszins aanpassen aan de stijl van architect.
Voor wie ook met deze prompt wil spelen:
'Fantastic surrealistic art by Patrick Woodroffe, Beautiful and Intricately Detailed art, surrealism, hyper detailed Architecture photography, Octane Rendering, high contrast, Raphael and Caravaggio, dramatic lighting, sharp focus, intricate details, highly detailed, strong contrast, intricate complexity, photorealistic, photorealistic complexity, cinematic realism, busy, insanely detailed, kids story book style, muted colors'
Gemaakt met Flux1.dev in ForgeUI, Euler sampler, Simple scheduler, 20 steps, Distilled CFG Scale: 3.5.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Als je andere resoluties gebruikt krijg je altijd andere afbeeldingen. Dat heeft niets met de prompt te maken.Yaksa schreef op woensdag 13 augustus 2025 @ 20:57:
Mede omdat AI bij realistische beelden steeds vaker in de fout gaat naarmate de afbeeldingen ingewikkelder worden vindt ik het leuker om surrealistische beelden te laten genereren.
Wel prompt gestuurd uiteraard, om de sfeer en compositie als geheel te bepalen, en o.a. met behulp van namen van kunstschilders en/of grafisch kunstenaars, mag AI (FLUX.dev) dan aan de slag.
Zo heb ik een prompt geschreven die heel aparte beelden oplevert en waar de resolutie waarin je genereert deels sturend is naar wat de uiteindelijke afbeelding wordt. Hierbij ligt het optimum voor deze prompt ruwweg op anderhalve megapixel per afbeelding.
Omgerekend kom je dan op de volgende tabel uit:
Vert. Res. Horiz. Res. Nr. of pixels
800 1800 1440000
900 1600 1440000
1000 1440 1440000
1100 1310 1441000
1200 1200 1440000
1310 1100 1441000
1440 1000 1440000
1600 900 1440000
1800 800 1440000
Een voorbeeld van generatie waarbij de horizontale resolutie flink hoger is dan de verticale levert voornamelijk landschappen met gebouwen op:
[Afbeelding]
Een voorbeeld waarbij horizontale en verticale resolutie gelijk zijn levert meer stadsgezichten met ook wat personen op:
[Afbeelding]
En een voorbeeld waarbij de verticale resolutie veel hoger is dan de horizontale levert meestal heel aparte torens op:
[Afbeelding]
Afbeeldingen zijn (zoals altijd) klikbaar voor hoge resolutie
Af en toe komen er ook wat meer surrealistische beelden van doodshoofden, rare dieren en onmogelijke constructies voorbij wanneer je wat meer iteraties doet en heel soms een onscherpe afbeelding.
Aanpassen doe je bijvoorbeeld door de naam van architect (Le Corbusier bijvoorbeeld) toe te voegen (bij Architecture photography) en dan kun je de stijl van de gebouwen enigszins aanpassen aan de stijl van architect.
Voor wie ook met deze prompt wil spelen:
'Fantastic surrealistic art by Patrick Woodroffe, Beautiful and Intricately Detailed art, surrealism, hyper detailed Architecture photography, Octane Rendering, high contrast, Raphael and Caravaggio, dramatic lighting, sharp focus, intricate details, highly detailed, strong contrast, intricate complexity, photorealistic, photorealistic complexity, cinematic realism, busy, insanely detailed, kids story book style, muted colors'
Gemaakt met Flux1.dev in ForgeUI, Euler sampler, Simple scheduler, 20 steps, Distilled CFG Scale: 3.5.
Meerdere tweakers hebben onlangs je de veel tips gegeven om de kwalteit van Flux afbeeldingen een flinke boost vooruit te geven. Om verder te kijken dan alleen een prompt te schrijven. Dit is weer 3x hetzelfde, weer wazig, misvormde figuren, volop renderfouten, vreemde kleuren. De artiest Patrick Woodroffe, Raphael, Caravaggio hebben heel andere stijlen.
Flux-Dev kan zoveel meer als er wat meer tijd en moeite wordt geinvesteerd. Zulke figuren anno 2025 nog met AI moeten accepteren hoeft echt niet meer en al helemaal niet voor publicatie. Ga eens lekker experimenteren met alle eerder gegeven tips.

https://github.com/Reithan/negative_rejection_steering
Als er mensen zijn die dit willen testen en mij feedback zouden willen geven?TL;DR:
CFG is a bad 'knob'
NRS replaces CFG with 3 new knobs.
NRS lets you to create cooler outputs than CFG.
Go for it. I'd love to see what they say. I'm sure I'll get at least a few "this is nonsense, that doesn't work". :lul:
Usually to ensure NRS is taking effect properly, I'll also set CFG to something crazy like 100, so if NRS isn't applied you'll notice right away
/f/image/AOUT9DHqXrrqCC7aEgA4sX1m.png?f=fotoalbum_large)
Zonder ook maar een hint te geven in hoe en wat - wat vinden jullie van het niveau van realisme van dit plaatje?
Wat ik zelf nog zie (of denk te zien) is dat de irissen t.o.v. elkaar niet helemaal gespiegeld zijn, maar dat is net als je bakkebaarden, nooit helemaal gelijkend.
[ Voor 59% gewijzigd door SkyStreaker op 17-08-2025 12:33 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Niet om de boel af te kraken, maar mij valt meteen een vreemde wijsvinger op.SkyStreaker schreef op zaterdag 16 augustus 2025 @ 07:54:
Een lid van de server van SM heeft een extension gemaakt en ik heb aangeboden om dat hier te plaatsen:
https://github.com/Reithan/negative_rejection_steering
[...]
Als er mensen zijn die dit willen testen en mij feedback zouden willen geven?
[...]
[Afbeelding]
Zonder ook maar een hint te geven in hoe en wat - wat vinden jullie van het niveau van realisme van dit plaatje?
Wat ik zelf nog zie (of denk te zien) is dat de irissen t.o.v. elkaar niet helemaal gespiegeld zijn, maar dat is net als je bakkebaarden, nooit helemaal gelijkend.
Lengte/anatomie van haar vinger klopt niet helemaal.
Nee hoor! Welkom juistEverLast2002 schreef op zondag 17 augustus 2025 @ 16:09:
[...]
Niet om de boel af te kraken, maar mij valt meteen een vreemde wijsvinger op.
Lengte/anatomie van haar vinger klopt niet helemaal.
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Ik krijg andere plaatjes. Meer niet. Niet beter, niet slechter: gewoon anders.SkyStreaker schreef op zaterdag 16 augustus 2025 @ 07:54:
Een lid van de server van SM heeft een extension gemaakt en ik heb aangeboden om dat hier te plaatsen:
https://github.com/Reithan/negative_rejection_steering
[...]
Als er mensen zijn die dit willen testen en mij feedback zouden willen geven?
[...]
[Afbeelding]
Zonder ook maar een hint te geven in hoe en wat - wat vinden jullie van het niveau van realisme van dit plaatje?
Wat ik zelf nog zie (of denk te zien) is dat de irissen t.o.v. elkaar niet helemaal gespiegeld zijn, maar dat is net als je bakkebaarden, nooit helemaal gelijkend.
Net als met de FluxResampler node of hoe die ook heet. Andere plaatjes met en zonder.
Dus het ontgaat me vooralsnog volledig waarom CFG = bad en NRS = good.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Ik zou het wel willen testen, maar aangezien ik nog steeds FLUX1.dev gebruik heeft dat geen zin.[b]SkyStreaker schreef op zaterdag 16 augustus 2025 @ 07:54:
Een lid van de server van SM heeft een extension gemaakt en ik heb aangeboden om dat hier te plaatsen:
Als er mensen zijn die dit willen testen en mij feedback zouden willen geven?
FLUX1.dev kent geen negatieve prompt, dus die extension kan in mijn user case geen invloed hebben.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ogen zijn niet slecht hoor, de pupillen lijken wel iets verschilend van groter maar dat stoort niet.SkyStreaker schreef op zaterdag 16 augustus 2025 @ 07:54:
Een lid van de server van SM heeft een extension gemaakt en ik heb aangeboden om dat hier te plaatsen:
https://github.com/Reithan/negative_rejection_steering
[...]
Als er mensen zijn die dit willen testen en mij feedback zouden willen geven?
[...]
[Afbeelding]
Zonder ook maar een hint te geven in hoe en wat - wat vinden jullie van het niveau van realisme van dit plaatje?
Wat ik zelf nog zie (of denk te zien) is dat de irissen t.o.v. elkaar niet helemaal gespiegeld zijn, maar dat is net als je bakkebaarden, nooit helemaal gelijkend.
Als je meer kritisch kijkt valt gelijk de vreemde wijsvinger op, de kootjes kloppen niet met de andere vingers.
De wijsvinger heeft verder iets vreemd wits links bij de nagel. Neus heeft rechts een wat aparte curve.
De bovenlip is te scheef, links dikker dan rechts. Net zoals het filtrum. De curve van linker wang mist in vergelijking met rechts.
Het is alsof er net door de tandarts een flinke verdoving is gezet.
Heel veel van de zaken die jij benoemd lijken mij gewoon juist realistisch. Niemand is perfect (en symmetrisch). Ik denk dat deze foto AI vooral weggeeft op de wijsvinger, die echt totaal anatomisch incorrect is, vergeleken bij de anderen. Nu zou ook dat 'imperfect' kunnen zijn, maar toch iets minder voor de hand liggend (pun intended), om over de nagel nog maar te zwijgen. Ook bijt ze letterlijk in het vlees van haar vinger.CR2032 schreef op zondag 17 augustus 2025 @ 17:36:
[...] Neus heeft rechts een wat aparte curve.
De bovenlip is te scheef, links dikker dan rechts. Net zoals het filtrum. De curve van linker wang mist in vergelijking met rechts. [...]
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Can't unsee.CR2032 schreef op zondag 17 augustus 2025 @ 17:36:
[...]
Het is alsof er net door de tandarts een flinke verdoving is gezet.


Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
:strip_exif()/f/image/LyqUiBgGabDwZL5z6Ej86V9O.jpg?f=fotoalbum_large)
Klikbaar voor hoge resolutie, gemaakt in ForgeUI met FLUX1.dev-Q8, Steps: 20, Sampler: Euler, Schedule type: Simple, CFG scale: 1, Distilled CFG Scale: 3.5. GPU: RTX 3060 12Gb
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
ik ben sinds kort aan het experimenteren met AI (3 maandjes) en maak gebruik van een low Vram (6gb) systeem. Ik heb diverse tools geprobeerd, maar blijf toch hangen in de UI van de Krita AI plugin. Alle andere UI's werken niet of geven foutmeldingen. Ik vind de uitdaging om een acceptabel image te kunnen creëren met een minimaal systeem geweldig, alleen kost het enorm veel tijd. Zijn er tips of trucs die ik nog kan ondernemen?
De laatste tijd gebruik ik Chroma als model, vanwege de relatief makkelijke prompt en natuurlijk taalgebruik.
Prompt is: High quality robot kid with a broken face, working on a handcrafted plastic airplane before him on the table.
/f/image/0sUIE2PRq9FAwB1fIU8EqJyi.png?f=fotoalbum_large)
Maak er een challenge van voor de community hier? Ik weet niet wat je exact wil bereiken maar als het in mijn mogelijkheden ligt wil ik je wel proberen te helpen.dotacom schreef op woensdag 20 augustus 2025 @ 09:40:
Ik weet niet of het hier toegestaan is, maar ik had graag AI art laten maken voor de 40e huwelijksverjaardag van mijn ouders om dan uit te printen op een grote canvas. Hoe begin ik hier best aan? Ik zie het bos door de bomen niet meer. Welke website/app zouden jullie hiervoor adviseren?
Welke info heb je verder nodig? Het ontwerp zou in het thema van de zee moeten zijn. Heel onze familie zou erop moeten staan, maar redelijk anoniem gezien AI nooit heel het gezin realistisch kan genereren. Of kan ik op een of andere manier foto's van iedereen aanleveren?StGermain schreef op woensdag 20 augustus 2025 @ 09:51:
[...]
Maak er een challenge van voor de community hier? Ik weet niet wat je exact wil bereiken maar als het in mijn mogelijkheden ligt wil ik je wel proberen te helpen.
Als je al een compositie hebt van de familie dan zou met mask /outpaint aan de slag moeten gaan maar dat doe je dan eerst op lage resolutie vaak rond 1MP tot max 2MP vervolgens door upscaler halen om weer een fatsoenlijke resolutie te krijgen.dotacom schreef op woensdag 20 augustus 2025 @ 10:20:
[...]
Welke info heb je verder nodig? Het ontwerp zou in het thema van de zee moeten zijn. Heel onze familie zou erop moeten staan, maar redelijk anoniem gezien AI nooit heel het gezin realistisch kan genereren. Of kan ik op een of andere manier foto's van iedereen aanleveren?
Ik zou persoonlijk gezien niet zomaar met familie foto's bij andere aankomen / openbare tools want je weet nooit wat er met de foto daarna gebeurd.
Er zijn ook van die photoshop facebook groepen waar je wat kan aanvragen maar de helft gaat je dan trollen maar er zijn altijd ook wel een paar serieuze verwerkingen. Maar dan als nog zit je foto's openbaar te delen en of iedereen (die op de foto staat) het daar mee eens is
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Leuke afbeelding, echter je zult (denk ik) nog wel iets aan je (engelse) taalgebruik moeten schaven.Midimaster schreef op woensdag 20 augustus 2025 @ 08:31:De laatste tijd gebruik ik Chroma als model, vanwege de relatief makkelijke prompt en natuurlijk taalgebruik.
Prompt is: High quality robot kid with a broken face, working on a handcrafted plastic airplane before him on the table.
[Afbeelding]
Bijvoorbeeld, High quality , moet dat op de afbeelding slaan of (zoals het er nu staat) op de robot kid?
Before him on the table klopt eigenlijk ook niet, dat zou in front of him on the table moeten zijn
Bij prompting is het nogal belangrijk om hetgeen wat je als afbeelding in je hoofd had zo nauwkeurig mogelijk te 'vertellen'. In correct engels, wanneer je de betekenis van een woord of zinsnede niet weet, laat het dan door google vertalen, meestal krijg je daarna wel het goede engelse woord. En anders gebruik je een (engels) synoniem voor dat woord).
Een goede uitleg hoe je het beste je prompt op kunt bouwen vind je hier.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Als je meer ervaring hebt met AI imaging weet je op welke patronen je moet letten. Die wijsvinger was natuurlijk overduidelijk, maar ook de genoemde andere punten is direct te zien als typisch AI geknutsel. Je zou de lat wel heel laag moeten leggen om dit verder realistisch te noemen.Room42 schreef op zondag 17 augustus 2025 @ 17:49:
[...]
Heel veel van de zaken die jij benoemd lijken mij gewoon juist realistisch. Niemand is perfect (en symmetrisch). Ik denk dat deze foto AI vooral weggeeft op de wijsvinger, die echt totaal anatomisch incorrect is, vergeleken bij de anderen. Nu zou ook dat 'imperfect' kunnen zijn, maar toch iets minder voor de hand liggend (pun intended), om over de nagel nog maar te zwijgen. Ook bijt ze letterlijk in het vlees van haar vinger.
Als je over het algemeen bij een afbeelding twijfelt of het AI is zijn er ook sites die hierbij helpen.
ChatGPT kan dit ook.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Echt betrouwbaar vind ik al die sites niet. Een deel van met een Canon gemaakte foto’s zijn ook “likely” AI. En sommige Flux plaatjes dan weer niet. Zeker als je een kwalitatief goede Lora gebruikt hebt 😋CR2032 schreef op woensdag 20 augustus 2025 @ 18:34:
[...]
Als je meer ervaring hebt met AI imaging weet je op welke patronen je moet letten. Die wijsvinger was natuurlijk overduidelijk, maar ook de genoemde andere punten is direct te zien als typisch AI geknutsel. Je zou de lat wel heel laag moeten leggen om dit verder realistisch te noemen.
Als je over het algemeen bij een afbeelding twijfelt of het AI is zijn er ook sites die hierbij helpen.
ChatGPT kan dit ook.
[Afbeelding]
Het blijft vaak zelf ontdekken wat wel of geen AI is.
De hoeveelheid bagger op internet neemt wel hand over hand toe sinds de AI hype.
ChatGPT 5 is daar mede veroorzaker van. Wat een enorme verslechtering tov 4o is dat model zeg. Ik wordt af en toe gillend gek van die output of van de totale dementie van dat model.
Zelf vind ChatGPT 5 het overigens grappig als je vraagt of ie dement is 🥴
:strip_exif()/f/image/bVoKPiiHDViw2dCeCncUtjtA.jpg?f=fotoalbum_large)
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
https://ulazai.com/directory/
Het internet wordt er inderdaad niet beter van met al die AI zooi. DuckDuckGo heeft tegenwoordig standaard filter die zoveel mogelijk AI images eruit knikkert. Je kunt dit open source filter ook zelf gebruiken in je browser.Mars Warrior schreef op vrijdag 22 augustus 2025 @ 18:28:
[...]
Echt betrouwbaar vind ik al die sites niet. Een deel van met een Canon gemaakte foto’s zijn ook “likely” AI. En sommige Flux plaatjes dan weer niet. Zeker als je een kwalitatief goede Lora gebruikt hebt 😋
Het blijft vaak zelf ontdekken wat wel of geen AI is.
De hoeveelheid bagger op internet neemt wel hand over hand toe sinds de AI hype.
ChatGPT 5 is daar mede veroorzaker van. Wat een enorme verslechtering tov 4o is dat model zeg. Ik wordt af en toe gillend gek van die output of van de totale dementie van dat model.
Zelf vind ChatGPT 5 het overigens grappig als je vraagt of ie dement is 🥴
[Afbeelding]
https://duckduckgo.com/du...duckduckgo-search-results
GPT-5 is laatst bijgesteld omdat die te koel en onpersoonlijk was. Blijkbaar is die nu ook bijdehand geworden.
Imaging met GPT-5 gaat best okay, het werkt sneller en je hebt een ruimere dagelijkse limieten met het free plan.

Kun je wat nauwkeuriger aangeven wat 'sneller' en 'ruimere' is?Corrigan schreef op zondag 24 augustus 2025 @ 18:31:
[...]GPT-5 is laatst bijgesteld omdat die te koel en onpersoonlijk was. Blijkbaar is die nu ook bijdehand geworden. Imaging met GPT-5 gaat best okay, het werkt sneller en je hebt een ruimere dagelijkse limieten met het free plan.
Overigens vindt ik die afbeelding nog geen verbetering t.o.v. eerdere versies van GPT-5, de fysieke verhoudingen van het jongetje kloppen niet en je hebt een lange loopplank nodig om in de trein te kunnen stappen. Als ie al ooit vertrekt, het lijkt een Nederlands station, maar ik zie nergens vertrekborden hangen.
Is er een specifiek verhaal wat je wil vertellen met deze afbeelding?
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Aha. Ik zal eens kijken wat dat scheelt.Corrigan schreef op zondag 24 augustus 2025 @ 18:31:
[...]
Het internet wordt er inderdaad niet beter van met al die AI zooi. DuckDuckGo heeft tegenwoordig standaard filter die zoveel mogelijk AI images eruit knikkert. Je kunt dit open source filter ook zelf gebruiken in je browser.
https://duckduckgo.com/du...duckduckgo-search-results
ChatGPT 5 laat ook vaak dingen weg bij een extra vraag en gaat dan elke keer zeggen dat dat er alsnog bij kan en vraagt dan altijd “Wil je dat?”GPT-5 is laatst bijgesteld omdat die te koel en onpersoonlijk was. Blijkbaar is die nu ook bijdehand geworden.
Imaging met GPT-5 gaat best okay, het werkt sneller en je hebt een ruimere dagelijkse limieten met het free plan.
[Afbeelding]
Zo kom ik altijd snel aan de gratis limiet. Dat geldt voor zowel plaatjes als comfyui flows als andere zaken.
Dus ik vraag nu vaak of ie niet alles weer wil weglaten en dus een compleet antwoord wil geven. Voor mij een enorme verslechtering tov 4o.
Plaatjes vind ik soms beter met dezelfde prompt of totaal anders dan met 4o. Het blijft dus onvoorstelbaar met iedere nieuwe versie.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Deze prompt heb ik zodanig aangepast dat het een ietwat 'vrolijker' beeld op zou leveren, o.a. door de begrippen 'fairy forest' , 'mystieke atmosfeer' en de artiest J.M.W. Turner te introduceren en te combineren.
Dat leverde onder andere deze afbeelding op:
:strip_exif()/f/image/RSxfg4NTAj40elIvCx2h6teb.jpg?f=fotoalbum_large)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Verhoudingen kloppen prima, het is de kledingstijl. Sneller en ruimer spreekt voor zich en ligt niet vast. Wat meer eigen intiatief en onderzoek wordt trouwens ook wel verwacht.Yaksa schreef op zondag 24 augustus 2025 @ 19:18:
[...]
Kun je wat nauwkeuriger aangeven wat 'sneller' en 'ruimere' is?
Overigens vindt ik die afbeelding nog geen verbetering t.o.v. eerdere versies van GPT-5, de fysieke verhoudingen van het jongetje kloppen niet en je hebt een lange loopplank nodig om in de trein te kunnen stappen. Als ie al ooit vertrekt, het lijkt een Nederlands station, maar ik zie nergens vertrekborden hangen.
Is er een specifiek verhaal wat je wil vertellen met deze afbeelding?
*knip* maak gewoon een TR als je het niet eens bent met een postYaksa schreef op zondag 24 augustus 2025 @ 21:02:
Ik heb een beetje met de prompt zitten spelen waarvan ik afgelopen zondag een afbeelding plaatste.
Deze prompt heb ik zodanig aangepast dat het een ietwat 'vrolijker' beeld op zou leveren, o.a. door de begrippen 'fairy forest' , 'mystieke atmosfeer' en de artiest J.M.W. Turner te introduceren en te combineren.
Dat leverde onder andere deze afbeelding op:
[ Voor 16% gewijzigd door Gonadan op 26-08-2025 11:48 ]
[ Voor 7% gewijzigd door DivjeFR op 27-08-2025 13:51 ]
Ik heb even wat onderzoek gedaan naar de verhoudingen en kreeg via ChatGPT het volgende antwoord:Corrigan schreef op dinsdag 26 augustus 2025 @ 10:34:
[...]Verhoudingen kloppen prima, het is de kledingstijl. Sneller en ruimer spreekt voor zich en ligt niet vast. Wat meer eigen intiatief en onderzoek wordt trouwens ook wel verwacht.
'Additional Details on Proportions:
The boy’s head is relatively large compared to his torso and arms. His shoulders are narrow, and the arms are a bit short relative to the length of his torso. The hands are small and are not proportionate to the width of the body. The legs are not fully visible, but the torso is unusually elongated compared to typical child proportions.
Overall, his body is “compressed” or stylized.
Speculation About What's in the Picture:
These unusual proportions suggest the image may not be a natural photograph but AI-generated or digitally altered. AI image generators sometimes create figures with heads too large, limbs too short, or clothing that fits in unnatural ways.
Speculation About the Context:
The mismatch in proportions reinforces the idea that this is a stylized or artificially generated image.
It may have been designed to create a nostalgic, cinematic feel, but the anatomical proportions ended up quite distorted.'
Er is dus wel degelijk sprake van verhoudingen die niet helemaal kloppen. Dat is dus ook nog steeds het probleem bij ChatGPT, wat ChatGPT zelf ook al aangeeft. Het propt wat zaken bij elkaar die enigszins overeenkomen met de gegeven opdracht en daar moet men het dan maar mee doen.
Het zou overigens best kunnen dat wanneer ChatGPT op deze mismatches gewezen wordt, dat een volgende iteratie er beter uit komt, een testje zou dat kunnen uitwijzen.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Bedoel je zoiets?dotacom schreef op woensdag 20 augustus 2025 @ 10:20:[...]Welke info heb je verder nodig? Het ontwerp zou in het thema van de zee moeten zijn. Heel onze familie zou erop moeten staan, maar redelijk anoniem gezien AI nooit heel het gezin realistisch kan genereren. Of kan ik op een of andere manier foto's van iedereen aanleveren?
:strip_exif()/f/image/rif2L7xY0JpTJhC9XJ2nIGMr.jpg?f=fotoalbum_large)
De basis is wel door AI te maken denk ik, dan moet je nog iemand zien te vinden die de gezichten er netjes in kan zetten (en je moet daarvoor dan de foto's aanleveren).
In principe kan er best veel, maar de kosten zullen variëren tussen hobbymatig (paar tientjes) tot professioneel (250 euro). Iemand is daar toch snel een paar uurtjes mee bezig om een acceptabele foto van te maken.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Van wat ik her en der op internet heb gelezen heb je deftige GPU (16Gb of meer) nodig die een deel van de berekeningen snel kan doen. En dan nog minstens 32Gb RAM voor de rest. Het bijplaatsen van RAM zou kunnen helpen. GPU geheugen werkt 10x sneller dan RAM geheugen. Misschien een NVIDIA A40 aanschaffen?The-Source schreef op woensdag 27 augustus 2025 @ 19:26:
Ik weet niet of hier nog meer mensen bezig zijn met video generatie maar mocht dat zo zijn hoeveel systeem RAM vreet dat? Heb nu al meermaals bij diverse modellen issues dat deze de container laat crashen door gebrek aan systeem RAM en met huidige 30GB die ik aan de VM heb toegekend ben ik benieuwd waar de grens zit om het goed te laten werken.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Een 7sec 360x640 30fps Wan2.2 Image2Video filmpje vreet geregeld 69,9GB RAM hierThe-Source schreef op woensdag 27 augustus 2025 @ 19:26:
Ik weet niet of hier nog meer mensen bezig zijn met video generatie maar mocht dat zo zijn hoeveel systeem RAM vreet dat? Heb nu al meermaals bij diverse modellen issues dat deze de container laat crashen door gebrek aan systeem RAM en met huidige 30GB die ik aan de VM heb toegekend ben ik benieuwd waar de grens zit om het goed te laten werken.
Als ik ze ga linken en upscale naar 720p en interpoleer naar 60fps gaat het gebruik wel naar de volle 95,6GB en een pagefile van 180GB
VRAM zit bij generen vaak rond de 17GB en tijdens upscale/interpolatie ron de 9GB.
[ Voor 4% gewijzigd door DivjeFR op 27-08-2025 21:17 ]
Bij mij klapt hij bij de lownoise stap eruit terwijl de high noise wel goed gaat.DivjeFR schreef op woensdag 27 augustus 2025 @ 21:14:
[...]
Een 7sec 360x640 30fps Wan2.2 Image2Video filmpje vreet geregeld 69,9GB RAM hier
Als ik ze ga linken en upscale naar 720p en interpoleer naar 60fps gaat het gebruik wel naar de volle 95,6GB en een pagefile van 180GB(oké, waren in totaal iets van 3k frames en duurde wel even)
VRAM zit bij generen vaak rond de 17GB en tijdens upscale/interpolatie ron de 9GB.
Heb wel 96GB ecc ram in bestelling staan maar eerst eens kijken of deze geaccepteerd gaat worden door mijn mobo.
Upscale kan ik wel het ffmpeg laten doen, a gaat snel en b gebruikt amper VRAM.
Interpolatie stap in de workflow heb ik nog niet bereikt omdat de lownoise eruit klapt.
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Maak je ook gebruik van blockswapping? Dat hielp mij enorm en heb geen OOM error meer gehadThe-Source schreef op woensdag 27 augustus 2025 @ 21:25:
[...]
Bij mij klapt hij bij de lownoise stap eruit terwijl de high noise wel goed gaat.
Heb wel 96GB ecc ram in bestelling staan maar eerst eens kijken of deze geaccepteerd gaat worden door mijn mobo.
Upscale kan ik wel het ffmpeg laten doen, a gaat snel en b gebruikt amper VRAM.
Interpolatie stap in de workflow heb ik nog niet bereikt omdat de lownoise eruit klapt.
Gebruik zelf deze workflow en voor upscale/interpolatie en stitchen deze
[ Voor 15% gewijzigd door DivjeFR op 27-08-2025 21:35 ]
Volgens mij zorgt block swap er voor dat het juist naar ram gaat en uit VRAM ( kan het mis hebben)DivjeFR schreef op woensdag 27 augustus 2025 @ 21:32:
[...]
Maak je ook gebruik van blockswapping? Dat hielp mij enorm en heb geen OOM error meer gehad
Gebruik zelf deze workflow en voor upscale/interpolatie en stitchen deze
RAM issue had ik ook al met framepack F1 waarbij het een beetje 20/80 was tussen succesvol/error
Scheelt in ieder geval dat ik een notificatie krijgt wanneer comfyui container over reboot gaat.
Wil later nog een n8n workflow ernaast bouwen die queue bewaking gaat doen en dus bij herstart de queue weer gaat herstellen maar eerst video weer in orde krijgen
Ik zie trouwens dat er ook Custom nodes zijn die queue management kunnen doen. Maar zelf gefrustreerd raken door een eigen oplossing te bouwen is toch veel leuker

[ Voor 8% gewijzigd door The-Source op 27-08-2025 22:52 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
OjaThe-Source schreef op woensdag 27 augustus 2025 @ 22:44:
[...]
Volgens mij zorgt block swap er voor dat het juist naar ram gaat en uit VRAM ( kan het mis hebben)
RAM issue had ik ook al met framepack F1 waarbij het een beetje 20/80 was tussen succesvol/error
Scheelt in ieder geval dat ik een notificatie krijgt wanneer comfyui container over reboot gaat.
Wil later nog een n8n workflow ernaast bouwen die queue bewaking gaat doen en dus bij herstart de queue weer gaat herstellen maar eerst video weer in orde krijgen
Ik zie trouwens dat er ook Custom nodes zijn die queue management kunnen doen. Maar zelf gefrustreerd raken door een eigen oplossing te bouwen is toch veel leuker

Mijn comfy workflow heb ik hier gedropt: https://github.com/MijnSp.../main/wan2.2_14B_I2V.json
Netjes in groups, met pushover notificatie inclusief duration of workflow in bericht.
Let op 21GB VRAM en tot 38GB RAM voorbij zien komen (waarbij mijn VM baseline 4GB is)
In IMG prep group simpel plaatje laden, tijd in sec opgeven (frames +1 word dan automagisch gedaan).
Als je het wil wordt je plaatje welke je inlaad gescaled/ in resolutie aangepast.
Niet meer zelf resolutie uitrekenen maar gewoon laden en runnen met die hap.
Op 3090 met 16 > 32 FPS is 1s video ongeveer 175s render tijd, 2s 300s (model inladen kost natuurlijk ook tijd)
[ Voor 29% gewijzigd door The-Source op 28-08-2025 18:20 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Als ik dan even door reken dan duurt het maken van een filmpje van een minuut dus twee en een half uur?The-Source schreef op donderdag 28 augustus 2025 @ 18:14:[...]Op 3090 met 16 > 32 FPS is 1s video ongeveer 175s render tijd, 2s 300s (model inladen kost natuurlijk ook tijd)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
In theorie ja, maar WAN is niet zo goed in lange videos zover ik weet. Of dat wellicht door extreem VRAM gebruik komt weet ik niet maar je bent vrij om het te testenYaksa schreef op donderdag 28 augustus 2025 @ 18:36:
[...]
Als ik dan even door reken dan duurt het maken van een filmpje van een minuut dus twee en een half uur?
Met Framepack R1 zat ik op 11minuten voor 1s video. Dus dat was een beetje extreem. Framepack F1 schoot meestal uit z'n ram maar was wel beter in snelheid en beweging en langere videos (bijvoorbeeld 15s) maar ook daarbij hoog RAM gebruik
Zojuist een 5s video, volgens comfyUI 1090s dat zou omgerekend naar 1 minuut een ruime 3.5 uur zijn.
Dus of het allemaal zo 1op1 door te rekenen is, ik denk het niet.
PS gaat hier om 5s video op 32FPS en resolutie van 736*1376 (source image is 1080*1920 en wordt door mijn eigen custom node terug gebracht naar 1MP wat bovenstaande resolutie wordt)
edit zoveel
[ Voor 30% gewijzigd door The-Source op 28-08-2025 19:03 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik heb nog niet heel veel succes met WAN workflows van anderen. Ik mis altijd erg veel custom nodes en met die van jouw krijg ik bijvoorbeeld deze error, als ik de missing nodes wil intalleren (lees: de manager open en het "Install Missing Custom Nodes"-venster wil openen):The-Source schreef op donderdag 28 augustus 2025 @ 18:14:
[...]
Mijn comfy workflow heb ik hier gedropt: https://github.com/MijnSp.../main/wan2.2_14B_I2V.json
[...]
Doe ik wat fout?Failed to find the following ComfyRegistry list.
The cache may be outdated, or the nodes may have been removed from ComfyRegistry.
comfyui_layerstyle
uploadtopushover
comfyui_layerstyle
comfyui-easy-use
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Ook in deze workflow zitten nodes die niet eens meer bestaan (retired). Dat is echt jammer. En dat komt best vaak voor met workflows van derden.DivjeFR schreef op woensdag 27 augustus 2025 @ 21:32:
[...]
Gebruik zelf deze workflow en voor upscale/interpolatie en stitchen deze
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Ik heb 3 weken geleden met wat trial en error alle nodes die er in zitten werkend gekregen, maar altijd via Manager -> Custom Nodes manager (of Custom nodes in workflow, twijfel even) en dan filteren op missing. Soms werkte de switch van 'nightly' naar 'latest' version ook. Weet niet of er sindsdien nodes retired zijn tho'Room42 schreef op donderdag 28 augustus 2025 @ 22:16:
[...]
Ook in deze workflow zitten nodes die niet eens meer bestaan (retired). Dat is echt jammer. En dat komt best vaak voor met workflows van derden.
Moest soms een nodepack opnieuw downloaden, en vaak een herstart en refresh doen
[ Voor 10% gewijzigd door DivjeFR op 28-08-2025 22:41 ]
De suggestie van open missing nodes klik ik altijd weg, vervolgens open in de manager > install missing custom nodesRoom42 schreef op donderdag 28 augustus 2025 @ 22:14:
[...]
Ik heb nog niet heel veel succes met WAN workflows van anderen. Ik mis altijd erg veel custom nodes en met die van jouw krijg ik bijvoorbeeld deze error, als ik de missing nodes wil intalleren (lees: de manager open en het "Install Missing Custom Nodes"-venster wil openen):
[...]
Doe ik wat fout?
Deze laat een ander overzicht zien dat de standaard comfyui waar niet alle custom nodes zijn
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Met jouw gelinkte workflow is dat nu inmiddels gelukt, met die van @DivjeFR loop ik nog tegen wat crashes aan.The-Source schreef op donderdag 28 augustus 2025 @ 23:26:
[...]
De suggestie van open missing nodes klik ik altijd weg, vervolgens open in de manager > install missing custom nodes
Deze laat een ander overzicht zien dat de standaard comfyui waar niet alle custom nodes zijn
Ik krijg met die van jou echter enorme "motion blur", waar ik nog niks van snap. Foto's maken met ComfyUI gaat nu erg goed, maar filmpjes is een heel andere tak van sport.
Maar beiden bedankt voor de links, ik ga verder spelen!
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Die motion blur heb ik ook bij video langer dan 5s maar vreemde is dat de node waar je de video ook kan zien deze blur niet heeft. Daar moet ik nog naar kijken of het door video combine komt of die iets anders.Room42 schreef op vrijdag 29 augustus 2025 @ 12:12:
[...]
Met jouw gelinkte workflow is dat nu inmiddels gelukt, met die van @DivjeFR loop ik nog tegen wat crashes aan.
Ik krijg met die van jou echter enorme "motion blur", waar ik nog niks van snap. Foto's maken met ComfyUI gaat nu erg goed, maar filmpjes is een heel andere tak van sport.![]()
Maar beiden bedankt voor de links, ik ga verder spelen!
Ik heb gewoon te veel kleine projectjes waarvan er geen 1 af komt omdat er steeds wat bij komt
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Je hebt waarschijnlijk suggestieve vragen gesteld of iets anders gedaan.Yaksa schreef op dinsdag 26 augustus 2025 @ 16:15:
[...]
Ik heb even wat onderzoek gedaan naar de verhoudingen en kreeg via ChatGPT het volgende antwoord:
...
Er is dus wel degelijk sprake van verhoudingen die niet helemaal kloppen. Dat is dus ook nog steeds het probleem bij ChatGPT, wat ChatGPT zelf ook al aangeeft. Het propt wat zaken bij elkaar die enigszins overeenkomen met de gegeven opdracht en daar moet men het dan maar mee doen.
Het zou overigens best kunnen dat wanneer ChatGPT op deze mismatches gewezen wordt, dat een volgende iteratie er beter uit komt, een testje zou dat kunnen uitwijzen.
ChatGPT geeft hier bij een nieuwe analyse vraag aan dat de verhoudingen van de jongen gewoon kloppen. ChatGPT is ook spot on met het thema, wat modern vs. klassiek is. En doet een paar andere suggesties voor verbetering.
Analyseer deze foto, geef verbeteringen aan, kloppen de verhoudingen
Ik analyseer de foto die je hebt geüpload:
Beschrijving
• Onderwerp: Een jongen staat op een perron bij een moderne hogesnelheidstrein.
• Kleding: Hij draagt een bruin pakjasje, een hoed, een sjaal en een denim overhemd.
• Compositie: De jongen staat centraal en scherp in beeld, de trein is net op de achtergrond en vervaagt in de diepte.
• Stemming: Serieuze, bijna nostalgische sfeer – contrast tussen de moderne trein en de klassieke outfit.
Analyse van de verhoudingen
• Het hoofd en lichaam van de jongen lijken in verhouding, geen onnatuurlijke anatomie.
• De verhouding tussen onderwerp en achtergrond is sterk gekozen: de jongen is scherp en prominent, terwijl de trein vaag richting achtergrond loopt → dit creëert diepte.
Verbeterpunten
Diepte & schaalcorrectie
Het zou natuurlijker ogen als de trein iets verder naar achteren wordt geplaatst.
Belichting
Het licht is vrij egaal en vlak. Een subtiel contrast of een warme lichtbron (bijvoorbeeld zon die van opzij komt) zou de foto meer dynamiek geven.
Kleurenbalans
De jongen draagt vooral bruin- en aardetinten, de trein is zilvergrijs. Hierdoor ontstaat een visueel harde scheiding. Een subtiel kleuraccent (bijvoorbeeld een andere kleur sjaal of een warmere toon in de treinreflectie) zou meer samenhang brengen.
Compositie
De jongen staat vrij centraal. Als hij iets meer naar links of rechts zou worden geplaatst (regel van derden), kan dit een spannendere compositie opleveren.
Emotie
Zijn gezichtsuitdrukking is neutraal/serieus. Afhankelijk van de beoogde sfeer, zou een lichte glimlach of ander emotioneel accent het beeld meer verhaal geven.
👉 Conclusie:
De foto is sterk qua stijl en sfeer. Met kleine correcties in perspectief, belichting en compositie zou de foto nog realistischer en krachtiger worden.
[ Voor 3% gewijzigd door Corrigan op 29-08-2025 15:58 ]
Echt niet hoor, in ChatGPT bij fotoanalyse de foto geüpload en vervolgens gevraagd of de anatomische verhoudingen van het jongetje zelf wel kloppen.Corrigan schreef op vrijdag 29 augustus 2025 @ 15:56:
[...]Je hebt waarschijnlijk suggestieve vragen gesteld of iets anders gedaan.
E.e.a. geeft eigenlijk alleen maar aan hoe onbetrouwbaar ChatGPT is.........
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Deze werkt nu ook goed! De bottleneck was 'WAS Node Suite', waar nu een nieuwe 'WAS Node Suite (Revised)' voor is.
[ Voor 9% gewijzigd door Room42 op 30-08-2025 10:03 ]
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
NiceRoom42 schreef op zaterdag 30 augustus 2025 @ 10:02:
[...]
Deze werkt nu ook goed! De bottleneck was 'WAS Node Suite', waar nu een nieuwe 'WAS Node Suite (Revised)' voor is.Deze workflow is misschien ook voor jou interessant, @The-Source.
En daarnaast maar 1 model en geen geklooi met low en high noise en ook een simpele workflow
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Heb de video bekeken en de comments die er onder staan ook. (Er zijn toch best wel wat mensen die problemen hebben om het geheel in ComfyUI goed werkend te krijgen.)The-Source schreef op zondag 31 augustus 2025 @ 10:13:Ivm vakantie kan ik het zelf niet testen maar 5s video, wan2.2 in 5 minuten en low VRAM(12GB maar zou met minder kunnen) YouTube: Fast Low VRAM Wan 2.2 14B AIO | 5 seconds in 5 minutes | Text-to-Vid...
En daarnaast maar 1 model en geen geklooi met low en high noise en ook een simpele workflow
Qua materiaal wat hij gemaakt heeft zijn het allemaal slow-motions, en qua scherpte zou het nog wel beter kunnen, ik mis toch wel wat fijne details (komt waarschijnlijk mede door de lage resolutie).
Verder is deze persoon echt heel goed in het schrijven van cinematic prompts, dus datgene wat de AI aanstuurt om in 5 seconden een vloeiend beeld te krijgen. Ik zie dat de gemiddelde gebruiker nog niet meteen voor elkaar krijgen. Bij image to video zitten er nog wat fouten in, de Ferrari heeft geen bestuurder en de strepen op de weg veranderen in de shot van een enkele witte lijn naar een dubbele gele lijn.
Al met al een hele leuke ontwikkeling, maar qua AI video heb ik het gevoel dat we met consumentenhardware nooit veel verder komen dan korte Tik-Tok filmpjes. 5 minuten wachten op een resultaat zoals getoond is natuurlijk voor een RTX 3060 best wel snel, maar wanneer je echt een filmpje op een behoorlijke resolutie wil maken van (zeg) 1 minuut met ook scene wisselingen er in dan heb je waarschijnlijk een workstation nodig met tenminste 128Gb Vram, een CPU met heel veel cores en onbeperkte snelle opslagcapaciteit.
Voordeel van zo'n workstation is dan wel dat je de verwarming in de winter niet aan hoeft te zetten......
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik heb alle credits van de eerste maand gebruikt voor deze paar seconden video. De snelheid was best aardig (als ik bovenstaande lees). De clips waren in 30 seconden meestal wel klaar.
Inhoudelijk was het resultaat echter niet best. Ik heb diverse soorten prompts geprobeerd:
- korte prompts gebruikt (vervang x door y)
- omschrijvend (glas wijn vs rode vloeistof),
- lange prompts (in deze scene zie je x, de camera beweegt y, vrouw met in linkerhand z, etc)
- negatieve prompts (raadde ie zelf aan)
Het resultaat was alle pogingen min of meer hetzelfde:
- Het hoofd van de vrouw werd ook (gedeeltelijk) vervangen door een nieuwe drank
- De schaal van de nieuwe drank in haar handen was verkeer (bv blikje of ander glas veel te groot)
- Instructies werden niet goed gevolgd (alleen vloeistof van kleur veranderen resulteert toch in ander glas)
- Soms veranderde er helemaal niets
De credits gaan er hard door heen (60 per generatie, 625 per maand), uiteraard ook als het resultaat slecht is (of bv niks is veranderd).
Waar je runwayml / aleph volgens mij wel voor kan gebruiken:
- 1 op 1 vervanging van iets grotere objecten (een voetbal door een andere bal van DEZELFDE grootte)
- toevoegen van dingen aan de scene
- grote veranderingen in scene (het weer, de setting, etc)
Hopelijk heeft iemand er iets aan
Runwayml.com is niks meer of minder dan een firma die servercapaciteit tegen deftige betaling beschikbaar stelt voor diegene die een abbo af willen sluiten.Deleon78 schreef op zondag 31 augustus 2025 @ 12:31:
Na wat desk research kwam ik uit bij Aleph AI voor object removal / editing, aangeboden via Runwayml.com.
Ik heb alle credits van de eerste maand gebruikt voor deze paar seconden video.
Hopelijk heeft iemand er iets aan
Ze maken je lekker met gelikte filmpjes en een kleine hoeveelheid credits en voor je het weet geef je een kapitaal uit door een abbo aan te gaan.
Voor grote bedrijven zoals reclamebureaus is dat allemaal wel te doen, dan hoeven ze zelf geen dure workstations aan te schaffen.
Maar vooralsnog lijken er ook nog steeds meer bedrijven te komen die een graantje van de overhypte AI-markt willen meepikken.
Ik heb tot nu toe geen enkele aanbieder gevonden die tegen een, voor consumenten, redelijke prijs rendercapaciteit beschikbaar wil stellen, mogelijk dat dat in de toekomst wel het geval is, dan ga ik er over nadenken.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Runpod heeft prima prijzen per uur naar mijn mening.Yaksa schreef op zondag 31 augustus 2025 @ 13:25:
[...]
Runwayml.com is niks meer of minder dan een firma die servercapaciteit tegen deftige betaling beschikbaar stelt voor diegene die een abbo af willen sluiten.
Ze maken je lekker met gelikte filmpjes en een kleine hoeveelheid credits en voor je het weet geef je een kapitaal uit door een abbo aan te gaan.
Voor grote bedrijven zoals reclamebureaus is dat allemaal wel te doen, dan hoeven ze zelf geen dure workstations aan te schaffen.
Maar vooralsnog lijken er ook nog steeds meer bedrijven te komen die een graantje van de overhypte AI-markt willen meepikken.
Ik heb tot nu toe geen enkele aanbieder gevonden die tegen een, voor consumenten, redelijke prijs rendercapaciteit beschikbaar wil stellen, mogelijk dat dat in de toekomst wel het geval is, dan ga ik er over nadenken.
Iets te kort door de bocht naar mijn mening. De modellen die worden aangeboden zijn niet allemaal beschikbaar voor eigen gebruik zoals Flux voor afbeeldingen. Voor Aleph en Google VEO 3 zul je volgens mij diensten moeten afnemen.Yaksa schreef op zondag 31 augustus 2025 @ 13:25:
[...]
Runwayml.com is niks meer of minder dan een firma die servercapaciteit tegen deftige betaling beschikbaar stelt voor diegene die een abbo af willen sluiten.
Ze maken je lekker met gelikte filmpjes en een kleine hoeveelheid credits en voor je het weet geef je een kapitaal uit door een abbo aan te gaan.
Voor grote bedrijven zoals reclamebureaus is dat allemaal wel te doen, dan hoeven ze zelf geen dure workstations aan te schaffen.
Maar vooralsnog lijken er ook nog steeds meer bedrijven te komen die een graantje van de overhypte AI-markt willen meepikken.
Ik heb tot nu toe geen enkele aanbieder gevonden die tegen een, voor consumenten, redelijke prijs rendercapaciteit beschikbaar wil stellen, mogelijk dat dat in de toekomst wel het geval is, dan ga ik er over nadenken.
Duur of niet? Ach, dat is ook persoonlijk.
https://deepwiki.com/llly.../3-installation-and-setup
Bedankt voor de suggestie! Ik heb de instructies doorgenomen, maar daar lijkt het alleen te gaan over video creatie, niet over bewerking. Klopt dat?StGermain schreef op zondag 31 augustus 2025 @ 15:17:
@Deleon78 Je kan framepack gebruiken vanaf systemen met 6GB VRAM. Ik gebruik het met een 3060ti met 8GB VRAM, het is traag maar het werkt wel.
https://deepwiki.com/llly.../3-installation-and-setup
Wat bedoel je met bewerking? Wat ik doe is eerst een mooi beeldje maken met flux dev in forge en dat dan enkele seconden animeren. Montage gebruik ik videoproc vlogger voor.Deleon78 schreef op zondag 31 augustus 2025 @ 15:21:
[...]
Bedankt voor de suggestie! Ik heb de instructies doorgenomen, maar daar lijkt het alleen te gaan over video creatie, niet over bewerking. Klopt dat?
Ik probeer een bestaande video beperkt aan te passenStGermain schreef op zondag 31 augustus 2025 @ 15:24:
[...]
Wat bedoel je met bewerking? Wat ik doe is eerst een mooi beeldje maken met flux dev in forge en dat dan enkele seconden animeren. Montage gebruik ik videoproc vlogger voor.
Daar kan ik je niet mee helpenDeleon78 schreef op zondag 31 augustus 2025 @ 15:26:
[...]
Ik probeer een bestaande video beperkt aan te passen
Ik heb vervolgens een goede prompt geschreven die consistente artistieke afbeeldingen kan maken.
En denk dat, afgedrukt op linnen, deze niet zouden misstaan in een modern interieur.
Mijns inziens moet er voor goede AI art toch ook een markt zijn?
Een paar voorbeelden:
:strip_exif()/f/image/krpwz1KPS8b8q7Bgyb1qdpF4.jpg?f=fotoalbum_large)
:strip_exif()/f/image/U534MyQlat3E8jsMBNkVBFdg.jpg?f=fotoalbum_large)
:strip_exif()/f/image/jom3KRTPrYBk64UQT9Ph97O2.jpg?f=fotoalbum_large)
Ik ga niet de letterlijke prompt weergeven, maar kan het wel deels omschrijven:
Een (deels) abstract botanisch olieverf schilderij, met een lichte 3D textuur, dieren en planten die lijken te smelten, pastel kleuren, een focus op de olieverf strepen, witte canvas achtergrond met een vloeiende waterverf, vastgelegd met een goede camera.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
:strip_exif()/f/image/M1Kbm92OZY171r8AjY2FpRAT.jpg?f=fotoalbum_large)
Afbeelding gemaakt met een, licht aangepaste, oude prompt (van april 2024).
O.a. ander model (FLUX1.dev) en een realistic LoRa toegevoegd.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Dit topic is bedoeld voor het kletsen over AI content creation en daarmee ook het tonen van je resultaten. Geef daarbij ook feedback aan wat anderen laten zien en probeer elkaar te helpen om te verbeteren.
GoT is in de basis een discussieplatform en geen tentoonstellingswebsite zoals DeviantArt. Posts met als enige doel het tonen van je plaatjes zijn dus in principe niet gewenst, interactie met de andere gebruikers staat voorop.