Denk dat je een AI upscaler hebt gebruikt? Zie namelijk tekst verandering in de 'content' die op de displays staat en dan echt de layout. Dat is natuurlijk niet direct verkeerd maar wel iets om voor jezelf op te letten of niet nou net die "cruciale" details worden veranderd.EverLast2002 schreef op zaterdag 3 januari 2026 @ 21:22:
eerste afbeelding normaal, tweede afbeelding upscaled met USDU (daarna verkleind naar 75%)
[Afbeelding]
[Afbeelding]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Scherp opgemerkt!The-Source schreef op maandag 5 januari 2026 @ 15:52:
[...]
Denk dat je een AI upscaler hebt gebruikt? Zie namelijk tekst verandering in de 'content' die op de displays staat en dan echt de layout. Dat is natuurlijk niet direct verkeerd maar wel iets om voor jezelf op te letten of niet nou net die "cruciale" details worden veranderd.
Nee, geen AI upscaler gebruikt, maar wel een node die 'verkeerd' gekoppeld was in deze workflow.
Dat gaf dus een flinke verandering tijdens upscalen in het eindresultaat .
Ik ben nu bezig met renderen met de node in de goede volgorde.
-edit: wat ook een grote invloed heeft is de 'denoise' setting in de upscaler. Zet je die hoog dan verandert er veel. Dus met beleid gebruiken.
[ Voor 15% gewijzigd door EverLast2002 op 05-01-2026 22:50 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
De tutorials en video's die ik heb gevonden zijn niet afdoende.
Nooit mee gespeeld maar klinkt wel interessant. Ik vind deze tot nu toe prima te volgen. Waar loop jij tegenaan? YouTube: ComfyUI XY Plots It's easier than it looks! <-- Dat is overigens al een 2 jaar oude video, dus het een en ander kan verouderd zijn.EverLast2002 schreef op dinsdag 6 januari 2026 @ 14:35:
Als iemand nog tips of eventueel een link heeft naar een XY plot workflow voor Comfyui Stable Diffusion, dan hou ik me aanbevolen.
De tutorials en video's die ik heb gevonden zijn niet afdoende.
[ Voor 7% gewijzigd door Room42 op 06-01-2026 16:01 ]
Nou ja! Check dan gelijk ff mijn V&A! 🛒
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Monzon kanaal ken ik, is wel een goede trouwens, veel van opgestoken.Room42 schreef op dinsdag 6 januari 2026 @ 15:57:
[...]
Nooit mee gespeeld maar klinkt wel interessant. Ik vind deze tot nu toe prima te volgen. Waar loop jij tegenaan? YouTube: ComfyUI XY Plots It's easier than it looks! <-- Dat is overigens al een 2 jaar oude video, dus het een en ander kan verouderd zijn.
Ik zou deze SDXL workflow graag hebben voor Z-Image Turbo, en daar zit nou het probleem.
Hij heeft ook een andere Flux workflow video, met tinyterra nodes. Ook geprobeerd maar werkt niet met ZIT.
At CES this week, NVIDIA is announcing a wave of AI upgrades for GeForce RTX, NVIDIA RTX PRO and NVIDIA DGX Spark devices that unlock the performance and memory needed for developers to deploy generative AI on PC, including:These advancements will allow users to seamlessly run advanced video, image and language AI workflows with the privacy, security and low latency offered by local RTX AI PCs.
- Up to 3x performance and 60% reduction in VRAM for video and image generative AI via PyTorch-CUDA optimizations and native NVFP4/FP8 precision support in ComfyUI.
- RTX Video Super Resolution integration in ComfyUI, accelerating 4K video generations.
- NVIDIA NVFP8 optimizations for the open weights release of Lightricks’ state-of-the-art LTX-2 audio-video generation model.
- A new video generation pipeline for generating 4K AI video using a 3D scene in Blender to precisely control outputs.
- Up to 35% faster inference performance for SLMs via Ollama and llama.cpp.
- RTX acceleration for Nexa.ai’s Hyperlink new video search capability.
Generate Videos 3x Faster and in 4K on RTX PCs
Generative AI can make amazing videos, but online tools can be difficult to control with just prompts. And trying to generate 4K videos is near impossible, as most models are too large to fit on PC VRAM.
Today, NVIDIA is introducing an RTX-powered video generation pipeline that enables artists to gain accurate control over their generations while generating videos 3x faster and upscaling them to 4K — and only using a fraction of the VRAM.
This video pipeline allows emerging artists to create a storyboard, turn it into photorealistic keyframes and then turn them into a high-quality, 4K video. It’s split into three blueprints that artists can mix and match, and modify to their needs:
A 3D object generator that creates assets for scenes.
A 3D-guided image generator that allows users to set their scene in Blender and generate photorealistic keyframes from it.
A video generator that follows a user’s start and end key frames to animate their video, and uses NVIDIA RTX Video technology to upscale it to 4K.
This pipeline is possible by the groundbreaking release of the new LTX-2 model from Lightricks, which is available for download today.
A major milestone for local AI video creation, LTX-2 delivers results that stand toe-to-toe with leading cloud-based models while generating up to 20 seconds of 4K video with impressive visual fidelity. The model features built-in audio, multi-keyframe support and advanced conditioning capabilities enhanced with controllability low-rank adaptations — giving creators cinematic-level quality and control without relying on cloud dependencies.
Under the hood, the pipeline is powered by ComfyUI. Over the past few months, NVIDIA has worked closely with ComfyUI to optimize performance by 40% on NVIDIA GPUs, and the latest update adds support for NVFP4 and NVFP8. All combined, performance is 3x faster and VRAM is reduced by 60% with RTX 50 Series’ NVFP4 format, and performance is 2x faster and VRAM is reduced by 40% with NVFP8.

NVFP4 and NVFP8 checkpoints are now available for some of the top models directly in ComfyUI. These models include LTX-2 from Lightricks, FLUX.1 and FLUX.2 from Black Forest Labs, and Qwen-Image and Z-Image from Alibaba. Download them directly in ComfyUI, with additional model support coming soon.

Once a video clip is generated, videos are upscaled to 4K in seconds using the new RTX Video node in ComfyUI. This upscaler works in real time, sharpens edges and cleans up compression artifacts for a clear final image. RTX Video will be available in ComfyUI next month.
To help users push beyond the limits of GPU memory, NVIDIA has collaborated with ComfyUI to improve its memory offload feature, known as weight streaming. With weight streaming enabled, ComfyUI can use system RAM when it runs out of VRAM, enabling larger models and more complex multistage node graphs on mid-range RTX GPUs.
The video generation workflow will be available for download next month, with the newly released open weights of the LTX-2 Video Model and ComfyUI RTX updates available now.
Of Forge Neo, heeft Z-Image support. Wel een hoop gedoe om het draaiend te krijgen met Sage 2EverLast2002 schreef op dinsdag 6 januari 2026 @ 16:08:
[...]
Monzon kanaal ken ik, is wel een goede trouwens, veel van opgestoken.
Ik zou deze SDXL workflow graag hebben voor Z-Image Turbo, en daar zit nou het probleem.
Hij heeft ook een andere Flux workflow video, met tinyterra nodes. Ook geprobeerd maar werkt niet met ZIT.
Heb deze driver en meest recente cuda toolkit geinstalleerd, maar merk niks in ComfyUI qua tijdswinst of verbetering (Z-Image Turbo, text2image)kazuka schreef op dinsdag 6 januari 2026 @ 20:20:
De nieuwe studio drivers die Nvidia vandaag released heeft bevat verschillende verbeteringen voor o.a. ComfyUI:
[...]
[...]
[Afbeelding]
[...]
[Afbeelding]
[...]
Wel het goede model inladen, anders werkt het idd niet.EverLast2002 schreef op woensdag 7 januari 2026 @ 13:11:[...]Heb deze driver en meest recente cuda toolkit geinstalleerd, maar merk niks in ComfyUI qua tijdswinst of verbetering (Z-Image Turbo, text2image)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik heb dat NVidia bericht een paar keer gelezen maar welk FP8 model bedoelen ze ?!Yaksa schreef op woensdag 7 januari 2026 @ 13:54:
[...]
Wel het goede model inladen, anders werkt het idd niet.
Ik gebruik nu het BF16 Z-Image Turbo model.
Je moet een NV model variant gebruiken. Die zijn speciaal aangepastEverLast2002 schreef op woensdag 7 januari 2026 @ 14:31:
[...]
Ik heb dat NVidia bericht een paar keer gelezen maar welk FP8 model bedoelen ze ?!
Ik gebruik nu het BF16 Z-Image Turbo model.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Van wat ik er uit begrijp is dat je de nieuwste versie van PyTorch moet hebben en modellen NVFP4 en/of NVFP8EverLast2002 schreef op woensdag 7 januari 2026 @ 14:31:[...]Ik heb dat NVidia bericht een paar keer gelezen maar welk FP8 model bedoelen ze ?!
Ik gebruik nu het BF16 Z-Image Turbo model.
Voor video heb je LTX-2 nodig, Nvidia legt hier uit hoe je dat kunt doen.
Hier nog wat meer info over de nieuwste Studio Driver.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Heb je wel de specifieke Nvidia modellen gedownload die ze noemen? Ik moet het ook nog proberen hoor. Die video workflow die ze noemen komt volgende maand pas uit als ik het goed lees.EverLast2002 schreef op woensdag 7 januari 2026 @ 13:11:
[...]
Heb deze driver en meest recente cuda toolkit geinstalleerd, maar merk niks in ComfyUI qua tijdswinst of verbetering (Z-Image Turbo, text2image)
Heb vorige maand toch maar de knip getrokken voor een 5090 en mijn 7900XTX verkocht
Met een 5090 aanschaffen is het wel handig om van tevoren even te bekijken of de CPU geen bottleneck gaat worden. Ook de PSU krijgt aardig wat te verduren, niet elke voeding kan genoeg spanning leveren om dat ding draaiende te houden.kazuka schreef op woensdag 7 januari 2026 @ 14:49:
[...]Heb vorige maand toch maar de knip getrokken voor een 5090 en mijn 7900XTX verkochtIk was bang dat die kaart anders in 2026 2x zo duur zou worden.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Mijn 9950X zal denk ik geen bottleneck zijn maar de CPU doet überhaupt niet veel in ComfyUI toch?Yaksa schreef op woensdag 7 januari 2026 @ 14:57:
[...]
Met een 5090 aanschaffen is het wel handig om van tevoren even te bekijken of de CPU geen bottleneck gaat worden. Ook de PSU krijgt aardig wat te verduren, niet elke voeding kan genoeg spanning leveren om dat ding draaiende te houden.
Die PSU was overigens nog een heel avontuur. Ik had er een 1200W platinum voeding bij gekocht van BeQuiet, de Dark Power 14. Dat ding heeft dus echt een ontwerp fout of een slechte batch, want bij plotselinge power spikes, zoals bij het starten van een ComfyUI workflow, greep de overprotection in en viel de PC uit
Op de Bequiet subreddit bleken er dus meerdere te zijn met exact hetzelfde probleem. Omgeruild voor een Corsair HX1200i en nu geen problemen meer.
call me stupid maar ik kan ze nergens vinden. alle modellen van z image turbo zijn minstens 1 maand oud (die gebruik ik dus).Mars Warrior schreef op woensdag 7 januari 2026 @ 14:47:
[...]
Je moet een NV model variant gebruiken. Die zijn speciaal aangepast
NVidia website:
The sample code for the optimizations is available under the ComfyUI kitchen repository.
en waar is dat dan??
[ Voor 16% gewijzigd door EverLast2002 op 07-01-2026 15:11 ]
https://huggingface.co/bl...LUX.2-dev-NVFP4/tree/main
En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
youtube.com/@hisrep
Thanks voor de link.DeNachtwacht schreef op woensdag 7 januari 2026 @ 15:15:
Hier kun je het nieuwe NVFP4 model van Flux 2 Dev vinden, die draait dus 'al' op 24GB VRAM:
https://huggingface.co/bl...LUX.2-dev-NVFP4/tree/main
En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
Ik gebruik echter Z-Image Turbo, niet Flux2.....
De z image, qwen etc zijn daar allemaal in nvfp te vinden. De z image turbo is maar 4.5GB groot (ipv de normale bf16 van 12.3 GB. Ben benieuwd naar kwaliteitsvrschillen, maar denk dat het voor velen hier dus niet heel interessant is omdat ze toch al een 16GB VRAM hebben?
[ Voor 70% gewijzigd door DeNachtwacht op 07-01-2026 15:20 ]
youtube.com/@hisrep
Als je de text encoder via je cpu laat lopen (device = cpu) zul je wel meer cpu verbruik zien (loopt nu via je gpu = default).DeNachtwacht schreef op woensdag 7 januari 2026 @ 15:15:
Hier kun je het nieuwe NVFP4 model van Flux 2 Dev vinden, die draait dus 'al' op 24GB VRAM:
https://huggingface.co/bl...LUX.2-dev-NVFP4/tree/main
En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
[ Voor 18% gewijzigd door DeNachtwacht op 07-01-2026 15:23 ]
youtube.com/@hisrep
Er zijn er ook die zich geen GPU met 24Gb kunnen veroorloven. Dan kun je alsnog een groot model inladen en dan verplaatst het programma een deel van het model naar het RAM en mag de CPU aan de slag.DeNachtwacht schreef op woensdag 7 januari 2026 @ 15:15:En @Yaksa ik zie in comfyUI over het algemeen een cpu belasting van 0-10% terwijl ik dingen doe, het is echt niet heel cpu intensief. Je wil graag flink wat ram idd naast een stevige videokaart, maar cpu valt echt mee.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
[ Voor 16% gewijzigd door DeNachtwacht op 07-01-2026 15:40 ]
youtube.com/@hisrep
geen enkele snelheidswinst (letterlijk, geen seconde sneller).
Omdat het een ander model is krijg ik wel andere resultaten dan met het bf16 model (fixed seed getest).
Wat nu het voordeel is?
(ik begreep dat het voor alle RTX kaarten gold, ik heb een 3060 12GB).
Heb je ook de nieuwste versie van PyTorch?EverLast2002 schreef op woensdag 7 januari 2026 @ 15:48:
Voorlopige conclusie na enkele afbeeldingen gemaakt te hebben met de nvfp4 z-image turbo :
geen enkele snelheidswinst (letterlijk, geen seconde sneller).
Omdat het een ander model is krijg ik wel andere resultaten dan met het bf16 model (fixed seed getest).
Wat nu het voordeel is?
(ik begreep dat het voor alle RTX kaarten gold, ik heb een 3060 12GB).
Ik zie gebruikers gewoon een compleet nieuwe installatie van ComfyUI doen zodat alle achtergrondprogramma's ook de nieuwste zijn.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Het is natuurlijk een marketing slide van nVidia die de performance winst meet tussen een BF16 en NVFP4 model op een 5090 hè, die hardwarematige ondersteuning voor FP4 heeft 😌EverLast2002 schreef op woensdag 7 januari 2026 @ 15:48:
Voorlopige conclusie na enkele afbeeldingen gemaakt te hebben met de nvfp4 z-image turbo :
geen enkele snelheidswinst (letterlijk, geen seconde sneller).
Omdat het een ander model is krijg ik wel andere resultaten dan met het bf16 model (fixed seed getest).
Wat nu het voordeel is?
(ik begreep dat het voor alle RTX kaarten gold, ik heb een 3060 12GB).
En inderdaad moet je Python en ComfyUI flink bijwerken om überhaupt alles uit dit model te halen.
[ Voor 4% gewijzigd door Mars Warrior op 07-01-2026 16:04 ]
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Heb een upgrade gedaan, Pytorch version 2.9.1+cu128 naar Pytorch version 2.9.1+cu130Yaksa schreef op woensdag 7 januari 2026 @ 16:00:
[...]
Heb je ook de nieuwste versie van PyTorch?
Ik zie gebruikers gewoon een compleet nieuwe installatie van ComfyUI doen zodat alle achtergrondprogramma's ook de nieuwste zijn.
Daarna weer getest en heb nu een winst van 4 seconden per afbeelding.
4 seconden op 40 seconden of op 8 seconden. Oftewel wat is dat op de totale render tijd?EverLast2002 schreef op woensdag 7 januari 2026 @ 16:59:
[...]
Heb een upgrade gedaan, Pytorch version 2.9.1+cu128 naar Pytorch version 2.9.1+cu130
Daarna weer getest en heb nu een winst van 4 seconden per afbeelding.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
van 30sec naar 26sec totaal rendertijdMars Warrior schreef op woensdag 7 januari 2026 @ 17:18:
[...]
4 seconden op 40 seconden of op 8 seconden. Oftewel wat is dat op de totale render tijd?
Volgens mij heb je voor al die optimalisaties een RTX 50xx serie nodig, het is dus niet zozeer de topkaarten maar de nieuwste generatie.Mars Warrior schreef op woensdag 7 januari 2026 @ 16:03:
[...]
Het is natuurlijk een marketing slide van nVidia die de performance winst meet tussen een BF16 en NVFP4 model op een 5090 hè, die hardwarematige ondersteuning voor FP4 heeft 😌
En inderdaad moet je Python en ComfyUI flink bijwerken om überhaupt alles uit dit model te halen.
Hoe heb je dit gedaan? Ik heb net maar weer eens een verse install gedaan en krijg dan 2.8.0+cu129 als geinstalleerde versie.EverLast2002 schreef op woensdag 7 januari 2026 @ 16:59:
[...]
Heb een upgrade gedaan, Pytorch version 2.9.1+cu128 naar Pytorch version 2.9.1+cu130
Daarna weer getest en heb nu een winst van 4 seconden per afbeelding.
momenteel heb ik geïnstalleerd staan:
1
2
3
4
5
| PyTorch: 2.8.0+cu129 CUDA: 12.9 Flash: 2.8.2 Sage: 2.1.1 Triton: 3.5.1 |
[ Voor 40% gewijzigd door DeNachtwacht op 07-01-2026 19:54 ]
youtube.com/@hisrep
(ik gebruik de portable ComfyUI versie, in Windows 10)DeNachtwacht schreef op woensdag 7 januari 2026 @ 17:37:
[...]
Hoe heb je dit gedaan? Ik heb net maar weer eens een verse install gedaan en krijg dan 2.8.0+cu129 als geinstalleerde versie.
momenteel heb ik geïnstalleerd staan:
code:
1 2 3 4 5 PyTorch: 2.8.0+cu129 CUDA: 12.9 Flash: 2.8.2 Sage: 2.1.1 Triton: 3.5.1
ik heb eerst geupdate via de folder 'update' > update_comfyui_and_python_dependencies.bat
daarna in een command prompt het commando geven: python.exe -m pip install --upgrade torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu130
(vanuit de python_embeded folder)
dan nogmaals via de Comfyui Manager (GUI) alles updaten.
alles sluiten en opnieuw ComfyUI starten.
Eventueel snel te checken via:
1
| pip list | Select-String "torch|triton|flash-attn|sageattention"; python --version; python -c "import torch; print('cuda ', torch.version.cuda)" |
youtube.com/@hisrep
alleen torch staat in een lang overzicht : 2.9.1+cu130DeNachtwacht schreef op woensdag 7 januari 2026 @ 20:50:
Dank, en welke versies van bovenstaande (cuda, flash, sage, triton) zijn dan bij jou geinstalleerd?
Eventueel snel te checken via:
code:
1pip list | Select-String "torch|triton|flash-attn|sageattention"; python --version; python -c "import torch; print('cuda ', torch.version.cuda)"
1
2
3
4
| python -m pip install --upgrade pip python -m pip install triton-windows python -m pip install sageattention python -m pip install "https://huggingface.co/ussoewwin/Flash-Attention-2_for_Windows/resolve/main/flash_attn-2.8.2+cu129torch2.8.0cxx11abiTRUE-cp312-cp312-win_amd64.whl" "https://huggingface.co/Panchovix/sageattention2.1.1-blackwell2.0-windows-nightly/resolve/main/sageattention-2.1.1-cp312-cp312-win_amd64.whl" --force-reinstall --no-deps |
Sage en Flash Attention zijn paketten die het verwerken sneller laten gebeuren, Flash maakt als het ware de snelweg breder, Sage de auto's kleiner (even simpel gezegd). Triton heb je nodig om beide te laden, dus die eerst installeren. Bij Flash moet je de specifieke versie hebben die voor je gpu generatie werkt, ik kan die voor een 30xx serie even niet vinden want dit is dus voor Blackwell (50xx serie).
Modelle als Flux en Z Turbo gebruiken vervolgens automatisch Flash, als je ook Sage wil gebruiken moet je een SageAttention node tussen de model loader en de sampler zetten.
Flash levert je zo'n 2x snelheidswinst op en tot 50% minder geheugengebruik.
Sage is nogmaals 30-40% sneller dan Flash maar heeft wel een theoretisch kwaliteitsverlies v.d. afbeeldingen (>1%)
Disclaimer als je bovenstaand probeert is het risico best aanwezig dat je je comfy breekt dus doe het in een aparte map of wees bereid alles opnieuw in te stellen. Eigen verantwoordelijkheid dus want het is wel echt tweaken, maar ik dacht wellicht hebben sommigen hier er iets aan dus ik deel het even
youtube.com/@hisrep
Als het goed is dan zou een RTX 3060 ook ondersteund moeten worden, daar zit immers een Ampere architectuur in:DeNachtwacht schreef op woensdag 7 januari 2026 @ 22:06:
Ah, in dat geval is daar sowieso winst te behalen.
code:
1 2 3 4 python -m pip install --upgrade pip python -m pip install triton-windows python -m pip install sageattention python -m pip install "https://huggingface.co/ussoewwin/Flash-Attention-2_for_Windows/resolve/main/flash_attn-2.8.2+cu129torch2.8.0cxx11abiTRUE-cp312-cp312-win_amd64.whl" "https://huggingface.co/Panchovix/sageattention2.1.1-blackwell2.0-windows-nightly/resolve/main/sageattention-2.1.1-cp312-cp312-win_amd64.whl" --force-reinstall --no-deps
Sage en Flash Attention zijn paketten die het verwerken sneller laten gebeuren, Flash maakt als het ware de snelweg breder, Sage de auto's kleiner (even simpel gezegd). Triton heb je nodig om beide te laden, dus die eerst installeren. Bij Flash moet je de specifieke versie hebben die voor je gpu generatie werkt, ik kan die voor een 30xx serie even niet vinden want dit is dus voor Blackwell (50xx serie).
Modelle als Flux en Z Turbo gebruiken vervolgens automatisch Flash, als je ook Sage wil gebruiken moet je een SageAttention node tussen de model loader en de sampler zetten.
Flash levert je zo'n 2x snelheidswinst op en tot 50% minder geheugengebruik.
Sage is nogmaals 30-40% sneller dan Flash maar heeft wel een theoretisch kwaliteitsverlies v.d. afbeeldingen (>1%)
Disclaimer als je bovenstaand probeert is het risico best aanwezig dat je je comfy breekt dus doe het in een aparte map of wees bereid alles opnieuw in te stellen. Eigen verantwoordelijkheid dus want het is wel echt tweaken, maar ik dacht wellicht hebben sommigen hier er iets aan dus ik deel het even
FlashAttention-2 with CUDA currently supports: Ampere, Ada, or Hopper GPUs (e.g., A100, RTX 3090, RTX 4090, H100). Support for Turing GPUs (T4, RTX 2080) is coming soon, please use FlashAttention 1.x for Turing GPUs for now. Datatype fp16 and bf16 (bf16 requires Ampere, Ada, or Hopper GPUs)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
youtube.com/@hisrep
Ja, maar je dient wel Forge Neo te installeren: hoe te handelenStGermain schreef op donderdag 8 januari 2026 @ 11:43:
Vraagje, werkt Z-image al met Forge?
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
![]() | ![]() |
(misschien fixen met Flux Kontext inpaint, zie wel
en
Kaassgaaf. Titel bewust.
[ Voor 3% gewijzigd door SkyStreaker op 08-01-2026 22:11 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Z-Image Turbo en REDZImage zijn zonder censuur, als dat het probleem is met Senpai.SkyStreaker schreef op donderdag 8 januari 2026 @ 22:09:Onegai Senpei (Senpai wil het model simpelweg niet, denk dat het de TE model is)
[Afbeelding] [Afbeelding]
(misschien fixen met Flux Kontext inpaint, zie wel)
en
Kaassgaaf. Titel bewust.
Ik zal deze weer eens gebruiken!EverLast2002 schreef op vrijdag 9 januari 2026 @ 13:09:
[...]
Z-Image Turbo en REDZImage zijn zonder censuur, als dat het probleem is met Senpai.
Anderzijds:
Wat zijn voor jullie succesvolle (Long) CLIP-L en TE combinaties? Er zijn er nogal wat, ook in combi en wordt een beetje "bomen-bos"-verhaal.
Inmiddels deze gevonden:
https://huggingface.co/Kaoru8/T5XXL-Unchained (heeft wel aangepaste json bestanden nodig voor Comfy)
En deze CLIP-L:
https://civitai.com/models/1784001?modelVersionId=2019009
I.C.M.: https://civitai.com/models/920261 (Artsy Lite)
[ Voor 35% gewijzigd door SkyStreaker op 10-01-2026 14:13 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Ben zelf ook nogal aan het experimenteren geweest met andere clip-L varianten en text encoders.SkyStreaker schreef op zaterdag 10 januari 2026 @ 07:59:
[...]
Ik zal deze weer eens gebruiken!
Anderzijds:
Wat zijn voor jullie succesvolle (Long) CLIP-L en TE combinaties? Er zijn er nogal wat, ook in combi en wordt een beetje "bomen-bos"-verhaal.
Inmiddels deze gevonden:
https://huggingface.co/Kaoru8/T5XXL-Unchained (heeft wel aangepaste json bestanden nodig voor Comfy)
En deze CLIP-L:
https://civitai.com/models/1784001?modelVersionId=2019009
I.C.M.: https://civitai.com/models/920261 (Artsy Lite)
[Afbeelding]
Werd er niet veel wijzer van, eigenlijk meer onoverzichtelijker.
Op een gegeven moment gewoon deze gaan gebruiken :
Long-ViT-L-14-BEST-GmP-smooth-ft.safetensors
t5xxl_fp16.safetensors
Maar flux-dev gebruik ik sowieso niet meer, ben erg gecharmeerd van Z-Image Turbo.
Dat is mijn daily goto model.
Tja, ik kan het niet ontkennen, het werkt wel METEEN:EverLast2002 schreef op zaterdag 10 januari 2026 @ 15:42:
[...]
Ben zelf ook nogal aan het experimenteren geweest met andere clip-L varianten en text encoders.
Werd er niet veel wijzer van, eigenlijk meer onoverzichtelijker.
Op een gegeven moment gewoon deze gaan gebruiken :
Long-ViT-L-14-BEST-GmP-smooth-ft.safetensors
t5xxl_fp16.safetensors
Maar flux-dev gebruik ik sowieso niet meer, ben erg gecharmeerd van Z-Image Turbo.
Dat is mijn daily goto model.
/f/image/QLhxvPjhYl0r50M8pgDIxBGx.png?f=fotoalbum_large)
Alleen moet ik dit perspectief er nog in krijgen:
[ Voor 15% gewijzigd door SkyStreaker op 10-01-2026 16:06 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Ik zou graag de 'Face restoration CodeFormer' willen gebruiken en vond deze handleiding:
https://stable-diffusion-art.com/codeformer/
Nou ziet sowieso bij mij alles er anders uit omdat ik de electron versie gebruik van ComfyUI.
Anyway, ik krijg nu twee foutmeldingen:
/f/image/GP90MniL6DW5nk21UymheSE2.png?f=fotoalbum_small)
Die 'codeformer.pth' heb ik gedownload en in een nieuwe folder geplaatst zo ComfyUI\models\facerestore_models\codeformer.pth
Maar dat ik blijkbaar niet goed?
En die andere foutmelding als ik daar op google dan kom ik uit op
https://huggingface.co/minchul/private_retinaface_resnet50
maar heb geen idee hoe wat ik nu verder moet?
Ik zou verwachten dat ik ergens iets van een safetensor moet downloaden maar zie hier niets?
weet het niet meer
missing nodes (= rood omcirkeld) kun je via de ComfyUI Manager laten fixen door op een optie "install missing custom nodes" te klikken. Maar de electron versie ken ik niet, wellicht zit daar ook wel die fix optie in?Vishari Beduk schreef op zaterdag 10 januari 2026 @ 16:02:
Vraagje over ComfyUI (Disclaimer: ik ben nog steeds een beginner en krijg alleen nog wat drama rommel gegenereerd).
Ik zou graag de 'Face restoration CodeFormer' willen gebruiken en vond deze handleiding:
https://stable-diffusion-art.com/codeformer/
Nou ziet sowieso bij mij alles er anders uit omdat ik de electron versie gebruik van ComfyUI.
Anyway, ik krijg nu twee foutmeldingen:
[Afbeelding]
Die 'codeformer.pth' heb ik gedownload en in een nieuwe folder geplaatst zo ComfyUI\models\facerestore_models\codeformer.pth
Maar dat ik blijkbaar niet goed?
En die andere foutmelding als ik daar op google dan kom ik uit op
https://huggingface.co/minchul/private_retinaface_resnet50
maar heb geen idee hoe wat ik nu verder moet?
Ik zou verwachten dat ik ergens iets van een safetensor moet downloaden maar zie hier niets?
"Alleen moet ik dit perspectief er nog in krijgen:"
Blijkbaar is dat een "dingetje" waar veel mensen tegenaan lopen, ik vond deze prompt aanvullingen om het te corrigeren :
upward facing camera angle, viewed from below, low-angle perspective of a (gevolgd door jouw eigen prompt).
Die manager had ik al geinstalleerd maar komt niet tevoorschijn. Ik zie wel even na opstarten een melding voorbij flitsen 'installed missing node'.EverLast2002 schreef op zaterdag 10 januari 2026 @ 16:20:
[...]
missing nodes (= rood omcirkeld) kun je via de ComfyUI Manager laten fixen door op een optie "install missing custom nodes" te klikken. Maar de electron versie ken ik niet, wellicht zit daar ook wel die fix optie in?
Ik heb wel een manager die er standaard in zat maar die ziet er totaal anders uit dan wat ik op youtube filmpjes zie. Dus veel van de filmpjes zijn voor mij niet bruikbaar.
weet het niet meer
Wanneer je een beginner bent, waarom installeer je dan niet (om te beginnen) de standaard versie van ComfyUI. Dan kun je gewoon vanaf die versie (waar voldoende info en filmpjes van zijn) je verder verdiepen in de materie en wanneer je denkt voldoend kennis verzameld te hebben overstappen naar een andere versie. Alle begin in AI is 'moeilijk', maar je kunt het jezelf ook moeilijker maken door in het begin meteen te veel te willen. Eerst de basis, dan de rest. En mocht je er met ComfyUI niet uitkomen (wat ik wel zou begrijpen, want de leercurve is vrij steil) dan kun je ook nog ForgeUI proberen, die interface is (vind ik) wat makkelijker onder de knie te krijgen. En probeer ook de basics van prompt writing te leren, daar ga je later veel plezier aan hebben.Vishari Beduk schreef op zaterdag 10 januari 2026 @ 17:03:
[...]
Die manager had ik al geinstalleerd maar komt niet tevoorschijn. Ik zie wel even na opstarten een melding voorbij flitsen 'installed missing node'.
Ik heb wel een manager die er standaard in zat maar die ziet er totaal anders uit dan wat ik op youtube filmpjes zie. Dus veel van de filmpjes zijn voor mij niet bruikbaar.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Waarom ComfyUI: Dit is de standaard. Het is overal, je ziet ook veel PNG files waarin de complete workflow embedded zit die je dan met ComfyUI weer kan bekijken.
Prompting: Dat is met automatic1111 (wat ik wel goed ken) niet anders.
Anyway, de portable versie op een andere pc geinstalleerd. En daar krijg ik deze workflow wel aan de praat.
Daarna de files gecopieerd van de custom nodes en face restoration folders naar de eerdere pc. Maar helaas probleem blijft. Waarschijnlijk mist de registratie ergens. Dus vandaag verder zoeken.
weet het niet meer
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Sorry voor de opmerkingen van mij die misschien wat 'kinderlijk' overkomen, maar wanneer jij, zonder ook maar enige inhoud of afbeeldingen hier geplaatst hebbende of even aan te geven met welke CPU/GPU je werkt vragen gaat stellen, dan ga ik er vooralsnog even van uit dat je nog niet zoveel van AI beeldgeneratie af weet. En dan geef ik altijd het advies om onderaan de berg te beginnen en niet te snel omhoog te willen lopen.Vishari Beduk schreef op zondag 11 januari 2026 @ 10:10:
Waarom desktop versie ipv portable: Het staat heel duidelijk in de comfyui-wiki 'we strongly recommend using the ComfyUI Desktop version'. Ik heb gewoon dit advies opgevolgd.
Waarom ComfyUI: Dit is de standaard. Het is overal, je ziet ook veel PNG files waarin de complete workflow embedded zit die je dan met ComfyUI weer kan bekijken.
Prompting: Dat is met automatic1111 (wat ik wel goed ken) niet anders.
Anyway, de portable versie op een andere pc geinstalleerd. En daar krijg ik deze workflow wel aan de praat.
Daarna de files gecopieerd van de custom nodes en face restoration folders naar de eerdere pc. Maar helaas probleem blijft. Waarschijnlijk mist de registratie ergens. Dus vandaag verder zoeken.
Overigens is ComfyUI geen standaard, er zijn talloze programma's die plaatjes kunnen maken. En al die programma's hebben de data van de afbeeldingen embedded is. Het ene programma werkt wat makkelijker dan het het andere, is maar net wat je wil of wat je gewend bent. Voor veel programma's is de basis gewoon Stable Diffusion en is er een schil of UI omheen gebouwd. De in te laden modellen / LoRa's bepalen vervolgens (voor een deel) de output. Maar het belangrijkste onderdeel blijft nog steeds de prompt zelf, die stuurt alles aan en is voor het overgrote deel bepalend voor de compositie van de afbeelding. Vandaar ook mijn opmerking om ook daar bij de basis te beginnen. Zonder referentiedata is het lastig inschatten wat iemand wel of niet kan.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Anyway, nu met mijn verse comfyui install zat ik in de templates te bladeren en zag daar ltx-2 staan en toen kon ik mij niet meer inhouden. En inderdaad; het is nu echt heel simpel om zelf een uniek filmpje te maken.
Dus ik ben vandaag fimpjes maken
edit: @SkyStreaker ja even gekeken maar die zijn leeg. Ik denk dat de instellingen in een sql-lite database zitten en dus niet copieerbaar zijn.
[ Voor 17% gewijzigd door Vishari Beduk op 11-01-2026 11:07 ]
weet het niet meer
Vraagje, wat kost dat nou zo'n filmpje van 20 seconden laten maken?Vishari Beduk schreef op zondag 11 januari 2026 @ 11:05:
Ja, ik had hier een half jaar geleden voor het laatst iets geplaatst en daarna inderdaad niets meer.
Anyway, nu met mijn verse comfyui install zat ik in de templates te bladeren en zag daar ltx-2 staan en toen kon ik mij niet meer inhouden. En inderdaad; het is nu echt heel simpel om zelf een uniek filmpje te maken.
Dus ik ben vandaag fimpjes maken
En kun je ook filmpjes aan elkaar 'plakken' om een wat langer verhaal te maken?
Misschien wel leuk om dan ook het eindresultaat hier te plaatsen, dan kunnen we ook, en dat zou de eerste keer zijn om die mogelijkheid te hebben, wat gerichte feedback geven.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Of je ook kan plakken weet ik niet?
Maar mijn fimpjes zijn karakatuur van het gedrag van mijn collega's, dus voor tweakers waarschijnlijk niet grappig.
Hoe dan ook is het interessant om te zien wat de mogelijkheden in 2026 zijn, ik verwacht het komend jaar in allerlei media een stortvloed aan filmpjes nu dit zo makkelijk kan.
weet het niet meer
Ik bedoelde niet de gratis versie, maar meer het abbo wat men aan gebruikers probeert te slijten. Voor zover ik weet zijn er geen gratis versies waarmee je locaal filmpjes kunt maken langer dan 5 seconden. 5 seconden is voor een filmpje ook nauwelijks interessant, dan kun je hooguit een mensje rond laten draaien o.i.d. Misschien leuk voor Tik-Tok maar inhoudelijk en artistiek kun je er dan niks mee. Desalniettemin is het wel leuk om de resultaten hier te plaatsen, daar is dit topic ook voor bedoeld.Vishari Beduk schreef op zondag 11 januari 2026 @ 12:29:
Een 5 seconde filmpje kost 235 seconde op de 5090 (met afterburner curve limit aan).
Of je ook kan plakken weet ik niet?
Maar mijn fimpjes zijn karakatuur van het gedrag van mijn collega's, dus voor tweakers waarschijnlijk niet grappig.
Hoe dan ook is het interessant om te zien wat de mogelijkheden in 2026 zijn, ik verwacht het komend jaar in allerlei media een stortvloed aan filmpjes nu dit zo makkelijk kan.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Titel: The Aliens love their children too
:strip_exif()/f/image/nkda9kwripKQX0pa9Ugqyht1.jpg?f=fotoalbum_large)
Voor diegene die met dit soort beelden willen experimenteren geef ik hier de prompt:
Het zal er een beetje van afhangen welk model, LoRa, VAE en Text encoder je gebruikt, de consistentie van opeenvolgende beelden met verschillende seeds is redelijk, alhoewel het af en toe voorkomt dat moeder en baby niet echt bij elkaar 'passen'.
De Prompt: 'Illustration art in Art Deco style. Half body shot of an alien insect women holding her baby. Printed on papyrus. Highly detailed, vintage style. Warm dreamlike chiaroscuro lighting, soft rim light, painterly shadows, glowing dust particles, shallow depth of field. Hyperrealistic digital painting, oil-paint texture blended with vintage photorealism, 8k detail, sharp focus, cinematic composition, concept art. Camera Settings: Olympus OM-1 Mark II with OM SYSTEM M.Zuiko Digital ED 65mm lens, f/8 aperture for sharp details, balanced exposure to emphasize all textures. Kodak Professional Ektar 100 film'
Generatie data: Steps: 20, Sampler: Euler, Schedule type: Simple, CFG scale: 1, Distilled CFG Scale: 3.5, Seed: 229452236, Size: 880x1360, Model hash: 3f97fdc57a, Model: flux1-dev, Lora hashes: "flux_realism_lora: 386f7b8e7440", Version: f2.0.1v1.10.1-previous-417-g8ff0dc6f, Module 1: ae, Module 2: t5xxl_fp16, Module 3: ViT-L-14-TEXT-detail-improved-hiT-GmP-TE-only-HF
Time 2.05 minutes on a RTX3060 12Gb.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
/f/image/TCdYXiNZVGHcPXh8H03CCmQz.png?f=fotoalbum_large)
Steps: 20, Sampler: Euler, Schedule type: Simple, CFG scale: 1, Distilled CFG Scale: 3.5, Seed: 2115062412, Size: 896x1152, Model hash: fef37763b8, Model: flux1-dev-bnb-nf4-v2, Version: f2.0.1v1.10.1-previous-665-gae278f79, Module 1: ae, Module 2: clip_l, Module 3: t5xxl_fp8_e4m3fn
33 seconden op RTX 4070 Super (12GB Vram)
Ik draag een rok, wat is jouw excuus?
Leuke poging en het toont ook aan dat de prompt zelf voor het overgrote deel de compositie van het beeld bepaald, maar dat bedoelde ik dus met inconsistentie, dat af en toe moeder en baby niet echt bij elkaar 'passen'Felicia schreef op zondag 11 januari 2026 @ 14:37:
[Afbeelding]
Steps: 20, Sampler: Euler, Schedule type: Simple, CFG scale: 1, Distilled CFG Scale: 3.5, Seed: 2115062412, Size: 896x1152, Model hash: fef37763b8, Model: flux1-dev-bnb-nf4-v2, Version: f2.0.1v1.10.1-previous-665-gae278f79, Module 1: ae, Module 2: clip_l, Module 3: t5xxl_fp8_e4m3fn
33 seconden op RTX 4070 Super (12GB Vram)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
True, lijkt ook voor een grote mate afhankelijk van het model en de seed. Ik heb er daarna nog meerdere gedraaid waar het verschil tussen de runs vrij groot is.Yaksa schreef op zondag 11 januari 2026 @ 14:59:
[...]
Leuke poging en het toont ook aan dat de prompt zelf voor het overgrote deel de compositie van het beeld bepaald, maar dat bedoelde ik dus met inconsistentie, dat af en toe moeder en baby niet echt bij elkaar 'passen'
Ik draag een rok, wat is jouw excuus?
Met Nepotism VII kwam ik aardig dichtbij, zie de baby en daar komt mijn opmerking vandaan:
/f/image/iCBSwKSG69CmXDcznu6dKI4O.png?f=fotoalbum_large)
Artsy Dream komt dicht in de buurt:
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
women is meervoud, bedoel je niet woman ?Yaksa schreef op zondag 11 januari 2026 @ 13:44:
Even wat anders.
Titel: The Aliens love their children too
[Afbeelding]
Voor diegene die met dit soort beelden willen experimenteren geef ik hier de prompt:
Het zal er een beetje van afhangen welk model, LoRa, VAE en Text encoder je gebruikt, de consistentie van opeenvolgende beelden met verschillende seeds is redelijk, alhoewel het af en toe voorkomt dat moeder en baby niet echt bij elkaar 'passen'.
De Prompt: 'Illustration art in Art Deco style. Half body shot of an alien insect women holding her baby. Printed on papyrus. Highly detailed, vintage style. Warm dreamlike chiaroscuro lighting, soft rim light, painterly shadows, glowing dust particles, shallow depth of field. Hyperrealistic digital painting, oil-paint texture blended with vintage photorealism, 8k detail, sharp focus, cinematic composition, concept art. Camera Settings: Olympus OM-1 Mark II with OM SYSTEM M.Zuiko Digital ED 65mm lens, f/8 aperture for sharp details, balanced exposure to emphasize all textures. Kodak Professional Ektar 100 film'
Generatie data: Steps: 20, Sampler: Euler, Schedule type: Simple, CFG scale: 1, Distilled CFG Scale: 3.5, Seed: 229452236, Size: 880x1360, Model hash: 3f97fdc57a, Model: flux1-dev, Lora hashes: "flux_realism_lora: 386f7b8e7440", Version: f2.0.1v1.10.1-previous-417-g8ff0dc6f, Module 1: ae, Module 2: t5xxl_fp16, Module 3: ViT-L-14-TEXT-detail-improved-hiT-GmP-TE-only-HF
Time 2.05 minutes on a RTX3060 12Gb.
Door het wijzigen van het woord 'baby' in 'offspring' is de consistentie sterk verbeterd.SkyStreaker schreef op zondag 11 januari 2026 @ 20:04:
Denk dat het door het woord "baby" zelf komt, die is de facto menselijk natuurlijk. "similar alien baby" of "alien baby" kan wellicht voor meer consistentie zorgen?
Waaruit maar weer blijkt dat je in een prompt uiterst precies moet zijn wat je exact bedoeld. (Ergens ook logisch want voor AI is het heel lastig om verbanden en de hele context van de prompt te 'begrijpen').
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Dit is overigens deel 1 van 2 maar deel 2 is nog niet uit
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
A young mother with her newborn childYaksa schreef op zondag 11 januari 2026 @ 22:21:
[...]
Door het wijzigen van het woord 'baby' in 'offspring' is de consistentie sterk verbeterd.
Waaruit maar weer blijkt dat je in een prompt uiterst precies moet zijn wat je exact bedoeld. (Ergens ook logisch want voor AI is het heel lastig om verbanden en de hele context van de prompt te 'begrijpen').
[Afbeelding]
En dan alien en insect-like eraan toevoegen?
Dat is het leuke ervan, elk nieuw of veranderd woord geeft weer een andere afbeelding.
Los van het model en/of LoRa die gebruikt worden.
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Het fp8 model (27GB) maakt onderstaande video in 97 seconden. Dit is met de standaard prompt die meekomt met de I2V workflow. Ik heb de starting image gemaakt door het eerste stuk van de prompt in Gemini te gooien en Nano Banana er een plaatje van te laten maken.
Geen idee waarom ze met een Brits accent spreektA close-up shot of a young waitress in a retro 1950s diner, her warm brown eyes meeting the camera with a gentle smile. She wears a black polka-dot dress with an elegant cream lace collar, her reddish-brown hair styled in an elaborate updo with delicate curls framing her freckled face. Soft, warm light from overhead fixtures illuminates her features as she stands behind a yellow counter. The camera begins slightly to her side, then slowly pushes in toward her face, revealing the subtle rosy blush on her cheeks. In the blurred background, the soft teal walls and a glowing red "Diner" sign create a nostalgic atmosphere. The ambient sounds of clinking dishes, distant conversations, and the gentle hum of a jukebox fill the air. She tilts her head slightly and says in a friendly, warm voice: "Welcome to Rosie's. What can I get for you today?" The mood is inviting, timeless, and full of classic American diner charm.
Leuk dat het kan, maar mij vallen toch wel een aantal zaken op; het neon bord zou 'Diner' moeten weergeven, maar er staat iets van 'Deer". En de dame in kwestie kijkt ineens nogal scheel in de laatste frames.kazuka schreef op dinsdag 13 januari 2026 @ 04:03:
Even gespeeld met dat nieuwe LTX2 model om mijn nieuwe 5090 te laten zweten.
Het fp8 model (27GB) maakt onderstaande video in 97 seconden. Dit is met de standaard prompt die meekomt met de I2V workflow. Ik heb de starting image gemaakt door het eerste stuk van de prompt in Gemini te gooien en Nano Banana er een plaatje van te laten maken.
[...]
[Streamable: LTX2video]
Geen idee waarom ze met een Brits accent spreektEn de ambient sounds vallen een beetje weg, maar toch wel leuk wat er mee mogelijk is. Vreemd genoeg geeft het kleinere nvfp4 model (20GB) een out-of-memory error dus die heb ik nog niet kunnen testen. Zal vast iets fout doen.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Pas maar op, misschien zien we die nog wel terug in het volgende Fast and the Furious deelEverLast2002 schreef op dinsdag 13 januari 2026 @ 19:50:
[...]
Ik had er gisteren ook eentje tussenzitten, gebeurt zo af en toe weleens dat er iets "aparts" uitkomt....
[Afbeelding]
Hier ook aan 't spelen met Z-image turbo. Interessante resultaten die nu soms meer relevant zijn dan ik bij Flux zag met wat minder detail.
Ik draag een rok, wat is jouw excuus?
(4 modellen, naar gelang je hardware). Modellen zijn te downloaden of online te gebruiken.
FLUX.2 [klein]
meer info en duidelijk overzicht en download links
[ Voor 22% gewijzigd door EverLast2002 op 17-01-2026 12:38 ]
Je mag er wel even bij vertellen dat je toch al minstens een RTX3090 of 4070 moet hebben om ermee te kunnen werken.EverLast2002 schreef op zaterdag 17 januari 2026 @ 12:12:Black Forest Labs heeft een "klein" model uitgebracht.
(4 modellen, naar gelang je hardware). Modellen zijn te downloaden of online te gebruiken.
FLUX.2 [klein]
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Volgens Sebastian Kamph draait dit model op een "potato", dus lage systeemeisen.Yaksa schreef op zaterdag 17 januari 2026 @ 12:29:
[...]
Je mag er wel even bij vertellen dat je toch al minstens een RTX3090 of 4070 moet hebben om ermee te kunnen werken.
Ik heb het zelf nog niet geprobeerd/gebruikt.
[ Voor 8% gewijzigd door EverLast2002 op 17-01-2026 12:35 ]
En wanneer ik de comments onder dat filmpje lees dan zijn er zowat geen verbeteringen, terwijl de gebruikelijke fouten (3 vingers, of 7, of 6 tenen, proportionele 'mistakes', enz.) uit Flux1 er nog steeds in zitten. Dus ik ga deze vooralsnog niet gebruiken, temeer omdat LoRa's van Flux1 bij dit model niet werken, dit model extreem promptgevoelig is ('Prompt following is heavily influenced by the prompting style') en de prompt soms helemaal niet datgene oplevert wat je had verwacht ('The model may fail to generate output that matches the prompts').EverLast2002 schreef op zaterdag 17 januari 2026 @ 12:33:[...]Volgens Sebastian Kamph draait dit model op een "potato", dus lage systeemeisen.
Ik heb het zelf nog niet geprobeerd/gebruikt.
Maar even afwachten dus met installeren, totdat het model wat updates heeft gehad. Bij Flux1 duurde het ook even voordat het model enigszins bruikbaar was.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Sebastian zegt dat het 9b model geen (of amper) last heeft van anatomische afwijkingen.Yaksa schreef op zaterdag 17 januari 2026 @ 13:20:
[...]
En wanneer ik de comments onder dat filmpje lees dan zijn er zowat geen verbeteringen, terwijl de gebruikelijke fouten (3 vingers, of 7, of 6 tenen, proportionele 'mistakes', enz.) uit Flux1 er nog steeds in zitten. Dus ik ga deze vooralsnog niet gebruiken, temeer omdat LoRa's van Flux1 bij dit model niet werken, dit model extreem promptgevoelig is ('Prompt following is heavily influenced by the prompting style') en de prompt soms helemaal niet datgene oplevert wat je had verwacht ('The model may fail to generate output that matches the prompts').
Maar even afwachten dus met installeren, totdat het model wat updates heeft gehad. Bij Flux1 duurde het ook even voordat het model enigszins bruikbaar was.
Ik heb hem gedownload, ga het nu uitproberen.
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
SkyStreaker schreef op zaterdag 17 januari 2026 @ 16:44:
Na een zwaar filosofische discussie in ChatGPT [...]
My god...
Nou ja! Check dan gelijk ff mijn V&A! 🛒
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Niet te zwaar aan tillen hoor
Vandaar ook de fingerguns
[ Voor 6% gewijzigd door SkyStreaker op 17-01-2026 17:16 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Wil je de prompt e.d. even laten zien?EverLast2002 schreef op zaterdag 17 januari 2026 @ 18:32:
even snel getest met de "klein base" versie, 20 steps.
dit is overigens het nvfp4 model.
[Afbeelding]
straks nog wat verder testen...
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
(Deze prompt is een mix van vorige prompts die ik had en heb hem tot 1 gemaakt).SkyStreaker schreef op zaterdag 17 januari 2026 @ 20:29:
[...]
Wil je de prompt e.d. even laten zien?
prompt:
upward facing camera angle, viewed from below, low-angle perspective, a dirty dusty black Mercedes-AMG GT Coupé, the car is professionally lowered and features large ultra-wide sport rims with an extreme deep-dish design, the wheels have dusty stepped lips. highly detailed headlights and rims. parked in front of a Mercedes-Benz dealership showroom, it's a sunny afternoon, extreme realism, lifelike metal and paint reflections, realistic rubber and glass materials, visible interior details through the windows, correct body geometry
model: flux-2-klein-base-9b-nvfp4.safetensors
sampler: euler (scheduler ??? > kun je nergens selecteren)
steps: 20
seed: 432262096973496
dimension: 1792x1120
Ik weet niet of je de nieuwe UI/UX van ComfyUI gebruikt maar:EverLast2002 schreef op zaterdag 17 januari 2026 @ 20:40:
[...]
model: flux-2-klein-base-9b-nvfp4.safetensors
sampler: euler (scheduler ??? > kun je nergens selecteren)
steps: 20
seed: 432262096973496
dimension: 1792x1120
:strip_exif()/f/image/sJT2MVneyw4p1pyJxaWErFdI.png?f=user_large)
Druk op dat embleem en dan breidt hij uit, je kan tegenwoordig delen flow consolideren.
Niet helemaal wakker
[ Voor 3% gewijzigd door SkyStreaker op 17-01-2026 20:54 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Die knop kende ik al, inderdaad opent ie dan een ander veld (rete irritant vind ik die subgraph optie, maargoed). Daar staat nergens een scheduler.SkyStreaker schreef op zaterdag 17 januari 2026 @ 20:51:
[...]
Ik weet niet of je de nieuwe UI/UX van ComfyUI gebruikt maar:
[Afbeelding]
Druk op dat embleem en dan breidt hij uit, je kan tegenwoordig delen flow consolideren.
Ik heb gemengde gevoelens, voor spaghetti als dit: https://civitai.com/model...bo?modelVersionId=2589460 (hij maakt hem binnenkort ook Flux2 geschikt, zoekt naar testers!) vindt ik dat wel weer fijn.EverLast2002 schreef op zaterdag 17 januari 2026 @ 20:55:
[...]
Die knop kende ik al, inderdaad opent ie dan een ander veld (rete irritant vind ik die subgraph optie, maargoed). Daar staat nergens een scheduler.
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Zoals je wellicht weet kun je die spaghetti slierten uitschakelen (show/hide links).SkyStreaker schreef op zaterdag 17 januari 2026 @ 21:00:
[...]
Ik heb gemengde gevoelens, voor spaghetti als dit: https://civitai.com/model...bo?modelVersionId=2589460 (hij maakt hem binnenkort ook Flux2 geschikt, zoekt naar testers!) vindt ik dat wel weer fijn.
Dat geeft ook weer rust en overzicht.
Nee! Wist ik niet! TOP!EverLast2002 schreef op zaterdag 17 januari 2026 @ 21:11:
[...]
Zoals je wellicht weet kun je die spaghetti slierten uitschakelen (show/hide links).
Dat geeft ook weer rust en overzicht.
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
/f/image/tb84bbiCfllASNI0hqq0T7Aw.png?f=fotoalbum_large)
Nee, nee mevrouw - ik zal niet meer fout parkeren!
Nova Reality ZI, Clip skip 1, 832x1216, Euler/Simple, Seed: 677175825, CFG 1.00 / 9 STEPS
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| A tough europunk law enforcement woman in combat uniform sits on a worn and severely neglected concrete staircase at night. It's riddled with rubble and graffiti. The composition favors foreground perspective over symmetry. The camera is locked very low at step height and clearly offset to the side of the staircase, never frontal. The camera starts extremely close to her puma sneakers in the foreground. Her puma sneaker dominates the frame and partially blocks her body, both realistic sneakers are visible within the frame. The edge of the soles of the puma sneakers emit a quite bright neon-white light. One leg extends down the steps toward the camera, the other bent. Her posture is stoic, casual, and completely unbothered. A massive industrial cyberpunk longsword is planted into the ground beside her. The blade points straight down and is slightly embedded into the concrete. She rests one hand loosely on the hilt, not gripping it, relaxed and effortless. The monolithic sword sits ((off to her side:1.2)), separate from her legs, and does not follow the direction of her body or the camera. (Cold ice-blue neon light glows from internal energy channels within the blade and along its edges:1.2), the futuristic sword has white text that distinctly says SLAMMAJAMMA She wears apparent large sporty semi-transparent spectral shades with a black rim. The lenses show thin-film interference with subtle oil-slick rainbow iridescence shifting with the light. The focus begins at the shoe and slowly moves upward. Her face remains secondary and emotionally unreadable. The background is gritty and oppressive, with dark city structures, dirty neon reflections, polluted haze, and faint holographic light. Cinematic quality, film grain, low ISO |
Geen NEG.
Z-Image Turbo FP8 [Kijai]
/f/image/kRiC98CSdjYpq64LEPAFsRrV.png?f=fotoalbum_large)
Upscaler op alles is https://civitai.com/models/438378/nomos8khat-lotf
[ Voor 79% gewijzigd door SkyStreaker op 18-01-2026 11:01 ]
Fractal Define R6 | ASRock B650M PG Lightning | AMD 8700G | G.Skill Flare X5 6000-CL30-38-38-96-134 (10ns) 2x16GB | Noctua NH-D15 Black | Seasonic Focus PX-750 Platinum | 4x2TB Kingston Fury NVMe | Shitty Gigabyte 24" Curved TN ding
Het scheduler gebeuren snap ik nog niet, er is nu een Flux2Scheduler node die erbij staat,
waar je niks in kunt selecteren alleen het aantal steps.
-edit: The scheduler in that workflow is "Flux2Scheduler", a specific-to-flux2 custom scheduler, it behaves similar to "Simple" but shifts the scale when you change the resolution.
It's not available in the regular KSampler.
/f/image/v6IXcOIvvF1jyR5xC1JsR4LP.png?f=fotoalbum_large)
geen upscaling, sharpening etc.
model: flux-2-klein-9b-nvfp4.safetensors
steps: 8
sampler: euler_ancestral_pp_cfg
1216x832
/f/image/o1vnf5fO5LcGiehKFW9oCRLN.png?f=fotoalbum_large)
dpmpp_3m_sde
[ Voor 37% gewijzigd door EverLast2002 op 18-01-2026 14:38 ]
Ik snap wel meer niet, bijv. waarom kunnen die auto's alleen maar rechtuit rijden?EverLast2002 schreef op zondag 18 januari 2026 @ 12:33:De vuile Porsche bij de BMW dealer parkeren...
Het scheduler gebeuren snap ik nog niet, er is nu een Flux2Scheduler node die erbij staat,
waar je niks in kunt selecteren alleen het aantal steps.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ik had deze vanochtend in de serie er tussen zitten:Yaksa schreef op zondag 18 januari 2026 @ 13:00:
[...]
Ik snap wel meer niet, bijv. waarom kunnen die auto's alleen maar rechtuit rijden?
/f/image/D0hVVqq6I0uQ5pdNCYoQQHRP.png?f=fotoalbum_large)
Mij is ooit met rijles geleerd dat je je stuur/wielen altijd RECHT moet zetten als je hem parkeert.
En zo parkeer ik mijn eigen auto zelf ook, altijd met de wielen rechtuit.
Dat hangt er van af of je op een helling staat of niet.EverLast2002 schreef op zondag 18 januari 2026 @ 14:08:[...]Ik had deze vanochtend in de serie er tussen zitten:
Mij is ooit met rijles geleerd dat je je stuur/wielen altijd RECHT moet zetten als je hem parkeert.
En zo parkeer ik mijn eigen auto zelf ook, altijd met de wielen rechtuit.![]()
Op een helling parkeer ik altijd zodanig dat de auto in ieder geval niet de weg op kan rollen.
Overigens bedoelde ik met mijn opmerking (en dat is dus een tekortkoming qua proporties in dit model) dat de dikke banden te dik zijn om in de wielkasten te kunnen draaien (of de luchtvering is ingezakt, kan ook).
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
ooh oke, haha. ja ze staan vaak erg laag inderdaad. komt misschien ook door de toevoeging "masterfully lowered", of "professionally lowered".Yaksa schreef op zondag 18 januari 2026 @ 14:25:
[...]
Dat hangt er van af of je op een helling staat of niet.
Op een helling parkeer ik altijd zodanig dat de auto in ieder geval niet de weg op kan rollen.
Overigens bedoelde ik met mijn opmerking (en dat is dus een tekortkoming qua proporties in dit model) dat de dikke banden te dik zijn om in de wielkasten te kunnen draaien (of de luchtvering is ingezakt, kan ook).
ik had onlangs een prompt waarin extra werd benadrukt dat de afstand tussen band en wielkast minimaal moest zijn. Die gebruik ik niet meer. Resultaat was hetzelfde als nu.
Dat doe ik meestal door een prompt op te stellen waarmee een afbeelding gemaakt zou moeten worden die niet of nauwelijks beïnvloed zou moeten zijn door de trainingsdata, wat eigenlijk allemaal bestaande beelden zijn. Dus door iets te laten genereren waar zowat geen beelden van zijn zou het model meer op de prompt zelf af moeten gaan. Soms lukt dat aardig, zo ook bij deze:
Titel: Some Species of Prehistoric Insects
:strip_exif()/f/image/Fjm3dAyT2NSUoQVCjcaKQZFs.jpg?f=fotoalbum_large)
![]() | ![]() | ![]() |
Wil je zelf ook prehistorische insecten tot leven wekken?
Hier is de prompt: A prehistoric arial overview of a flock of cute but creepy flying Caihong Juji's. bright colored feathers on their wings and tails, the colored skin on their bodys with veins showing, reptillian eyes, liquid metal, geometry, fashion, neural networks, mycelium, above a tropical forest, beautiful masterpiece, hyper-detailed, Ophelia, Nicoletta Ceccoli, Brian Froud, natural colors, imaginative. Camera Settings: Olympus OM-1 Mark II with OM SYSTEM M.Zuiko Digital ED 18mm wide angle lens, f/16 aperture for sharp details, balanced exposure to emphasize all textures. Kodak Professional Ektar 100 film
Veel plezier ermee.....
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Dit topic is bedoeld voor het kletsen over AI content creation en daarmee ook het tonen van je resultaten. Geef daarbij ook feedback aan wat anderen laten zien en probeer elkaar te helpen om te verbeteren.
GoT is in de basis een discussieplatform en geen tentoonstellingswebsite zoals DeviantArt. Posts met als enige doel het tonen van je plaatjes zijn dus in principe niet gewenst, interactie met de andere gebruikers staat voorop.
/f/image/wJaY15DuS7Y0Q2nsMCSS1YkN.png?f=fotoalbum_large)
/f/image/Xp5CKj6eDC5f3ddBMDlkcEa1.png?f=fotoalbum_large)
:strip_exif()/f/image/TZAqZ4QxH9j7GkNmlylwq5KV.jpg?f=fotoalbum_large)
/f/image/np4q3ePnqfTk8DRdjlCDqeZx.png?f=fotoalbum_large)
/f/image/t2Uyw376HQ6G72FQe58TfDCY.png?f=fotoalbum_large)
/f/image/vKASyfbgGQWOJQWJgS6Snj3G.png?f=fotoalbum_tile)
/f/image/2Z8f5pofeSEWf8Y3sQdrT3Rp.png?f=fotoalbum_tile)
/f/image/k2JQUhfFOfTT11UthZYg9GMD.png?f=fotoalbum_large)
/f/image/N7eAEID3m9i6hn4X0JS9TFIt.png?f=fotoalbum_large)
/f/image/SkvDblYbYYnPCQi3QnOZOe8C.png?f=fotoalbum_large)
/f/image/ROV60LXBJmRDWYWqXfp0csbo.png?f=fotoalbum_large)
:strip_exif()/f/image/X8P3mjqRUGQtRMXctXM9OvGD.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/iV5AYsVOJvoRvB3nsAXlfkiu.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/vByRbTHvCG5ij1JXvlwnCx4K.jpg?f=fotoalbum_tile)