Tweede CRT aan DVI-uitgang onboard X1250?

Pagina: 1
Acties:
  • 2.282 views sinds 30-01-2008

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Buzz-01
  • Registratie: Juni 2002
  • Laatst online: 15:31
Systeem
Nog niet zo lang geleden heb ik een nieuwe PC gebouwd om mijn oude te vervangen.
Ik vraag zelden veel grafische performance, maar de PC staat wel vaak aan. Onder andere daarom heb ik gekozen voor onderstaande onderdelen om een voordelig, energiezuinig systeem te bouwen:
- MSI K9AG Neo2 Digital mobo met Radeon X1250 video onboard (VGA, DVI-D, HDMI)
- AMD X2 BE-2350 processor
- 2GB PC6400 DDR2 G.E.I.L. geheugen in DualChannel

In mijn vorige PC had ik een AGP videokaart voor mijn primaire monitor en een PCI videokaart voor mij secundaire monitor. Beiden zijn 17" CRT en voldoen voorlopig nog perfect. Om de tweede CRT aan mijn PC te hangen heb ik op ebay een cheap-ass made-in-china DVI-VGA adapter gekocht (géén ATI-branded zoals op de foto!), zoiets als deze:
Afbeeldingslocatie: http://img.inkfrog.com/pix/innoinkforgy/1_142.jpg

Exact dezelfde DVI-pinning als op het mobo; meer pinnen heb ik niet. Ik heb echter gezien dat er ook adapters zijn die nog vier pinnen rond de brede pin hebben zitten. Zo'n uitgebreidere gaat bij mij dus niet passen.

Probleem
Kort gezegd: Ik krijg mijn tweede CRT niet aan de gang op de DVI-uitgang! De onboard videokaart ondersteunt volgens de specs dual monitor, in de volgende combinaties (selecteerbaar via jumpers op 't mobo):
- VGA & HDMI
- VGA & DVI

Wat heb ik geprobeerd:
Ik heb (uiteraard) de laatste drivers van ATI geïnstalleerd. Die lijken dualview te ondersteunen; twee monitoren worden weergegeven in het Control Center. Echter is de tweede niet geactiveerd en ik krijg 'm ook niet geactiveerd. Alsof 'ie geen monitor detecteert op de DVI-poort.

Ik heb in het BIOS naar instellingen gezocht die hier iets mee te maken kunnen hebben. Echter heb ik niets gevonden waarvan ik ook maar enigszins het vermoeden heb dat het mijn probleem kan oplossen. Video-geheugen is shared met RAM op dit bord, geheugengebruik staat dynamisch ingesteld.

Ik heb gezocht op GoT, Google, MSI's support site en ATI's support site. Echter ben ik niet voldoende bekend met DVI om te bepalen of e.e.a. überhaupt wel gaat werken met de door mij gekochte adapter.

Ik heb de DVI-pinout opgezocht en gezien dat de vier pinnen die ik niet op de DVI-poort heb worden gebruikt om de analoge kleuren rood, groen, blauw en het HSync-signaal over te brengen. Wellicht zit hier mijn probleem.

Kan ik hier dan überhaupt wel iets mee beginnen?
Gaat het met mijn CRT's sowieso niet werken, of zie ik iets over het hoofd?
Als dat zo is; waarvoor is de adapter die ik gekocht heb dan wel bedoeld?
Alle tips zijn welkom! :)

Flickr


Acties:
  • 0 Henk 'm!

  • kalizec
  • Registratie: September 2000
  • Laatst online: 17-07 01:45
Als die vier pinnen er omheen niet gaan passen is het een DVI-I aansluiting en die kun je onmogelijk middels een verloopje omzetten naar VGA. Om DVI-VGA te ondersteunen moet de aansluiting van het type DVI-D zijn.

Lees de FAQ eens door voor meer informatie omtrent VGA, DVI en HDMI.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


Acties:
  • 0 Henk 'm!

  • Buzz-01
  • Registratie: Juni 2002
  • Laatst online: 15:31
Hmm. Dat zou betekenen dat de enige optie is om een kaartje bij te steken. Ik heb m'n oude PCI kaartje nog liggen; dat zou ik natuurlijk kunnen proberen. De FAQ helpt me niet echt verder; wellicht bedoel jij een andere FAQ dan die ik gelezen heb?

Waar zijn die adapters dan wel voor bedoeld? Als je er geen VGA-signaal uit kunt halen, waarom noemt men ze dan DVI-VGA adapters? Om een enkeling zoals ik op te lichten? :+

Flickr


Acties:
  • 0 Henk 'm!

  • Buzz-01
  • Registratie: Juni 2002
  • Laatst online: 15:31
... toch een subtiel schopje... O-)

Als het met deze adapter niet gaat werken op mijn CRT, waar zijn ze dan wél voor bedoeld? :?

Flickr


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 23:52
Gaat gewoon niet lukken met DVI-D (D van Digital). Hij mist 4 pinnen die nodig zijn voor het analoge signaal. Die mist jou DVI-D aansluiting dus waardoor het niet werkt. Kijk maar eens op je verloopje. Boven en onder het streepje horen aan beide kanten nog 2 pinnen te zitten. De enige optie is om een andere videokaart er bij te zetten (goedkoop) of een Matrox DualHead oid te nemen (duur). Misschien kun je je oude PCI videokaart wel hergebruiken.

Acties:
  • 0 Henk 'm!

  • Buzz-01
  • Registratie: Juni 2002
  • Laatst online: 15:31
Oké, helder verhaal. Ik zal eerst mijn PCI kaart eens proberen, maar weet niet of die de performance van m'n systeem om zeep gaat helpen. Het betreft een TNT2 32MB kaartje dat ik ooit eens naast mijn GeForce2 gestoken heb.
Misschien is het verstandiger om een leuke PCI-e kaart met DVI-I en VGA en dualmodus op de kop te tikken? Of kan ik een PCI-e videokaart en onboard video altijd ongestraft tegelijk gebruiken? Weet nog dat dat met AGP vaak problemen gaf en dat een PCI kaart dan wel werkte.

Maar even los van mijn setup; wat moet je dan wél met de adapter die ik heb? De mijne is een noname/made-in-china, maar op de foto zie ik er een van ATi.
Lijkt me dat ze dus wel een toepassing hebben? Maar welke?

Flickr


Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 23:52
Het beste is gewoon een PCIe kaartje halen ivm compabiliteit. Waarschijnlijk kun je wel 1 met 2x DVI halen. Je moet er echter wel op letten dat deze dan wel beide ook analoog uitsturen. Zelf heb ik wel eens een 2e monitor op mn Radeon 9600Pro gehad met een DVI-D-SUB converter. Dat werkte prima.

DVI zelf is digitaal, echter zitten er dus op de meeste dedicated kaarten gewoon ook 4 pinnen (2 boven en 2 onder de streep) bij voor het analoge deel. Eigenlijk zou je kunnen zeggen dat DVI-I 2 aansluitingen heeft: Analoog (VGA) en Digitaal (DVI-D). Door dat verloopje worden de benodigde pinnen dus doorgelust naar een D-SUB connector waar je je CRT op kan aansluiten. Je kan dus gewoon je noname stekkertje gebruiken. Alleen de beeldkwaliteit kan minder zijn, maar dat zal wel meevallen. Het zijn puur wat draadjes, er zitten geen chipjes ed achter.

Zie ook onderstaand plaatje:
Afbeeldingslocatie: http://www.almer.ru/i/pics/catalog/Cable/DVI-D_DVI-I.jpg

Jij hebt dus de bovenste die alleen Digitaal (DVI-D) kan. De onderste, met 4 pinnen extra heeft dus ook Analoge (VGA) ondersteuning. Die onderste heb je nodig wil je je converter laten werken.

Edit: Merk nu dat het plaatje uit je topicstart dus niet klopt van die DVI-VGA omvormer... :|

Zo moet hij er WEL uit zien:
Afbeeldingslocatie: http://www.printenenzo.nl/images/products/dvi-4.jpg

Mocht je op je cheap ass convertor die 4 pinnen wel missen rond het streepje dan weet je dat ze je in China aan het uitlachen zijn. Hier overigens ook :+

Edit2: Heb nog even de TS overgelezen en * GENETX rolt inmiddels rondjes over de vloer _/-\o_

Ik moet overigens wel oppassen met deze uitspraak, maar ik wil niet geloven dat er een nieuwe soort DVI is die analoog op een andere manier doorgeeft. Meestal krijg je die converters er ook gewoon bij. Klinkt overigens hetzelfde als mn klasgenoot die een USB -> FireWire kabel had gekocht op marktplaats voor 2 euro zonder iets van chips ed er in :+

[ Voor 41% gewijzigd door GENETX op 04-12-2007 13:47 ]


Acties:
  • 0 Henk 'm!

  • Buzz-01
  • Registratie: Juni 2002
  • Laatst online: 15:31
Mja, inderdaad. Mijn verloopje mist dus die pinnen, net als mijn mobo. Ze passen dan ook perfect op elkaar, maar functioneren is er niet bij! :+
Nooit eerder wat met DVI gedaan, dus niet echt bij stilgestaan... |:(

Flickr


Acties:
  • 0 Henk 'm!

  • Tha Ra
  • Registratie: Oktober 2005
  • Laatst online: 22:23
Lekker nuttige adapter dan :?

Acties:
  • 0 Henk 'm!

  • GENETX
  • Registratie: Juni 2005
  • Laatst online: 23:52
Ik ben opzich ook wel benieuwd hoeveel zo'n "converter" kost. Tis niks meer als een blokje met aan beide kanten een stekkertje. Op internet kun je zo de verkeerde plaatjes er op gooien. Een leuk praatje en de leek koopt het gewoon aangezien het ook neit te veel kost. Laat eens 100 man zo'n stekkertje kopen... De verkoper rolt nu al uren rondjes op de grond omdat hij toch snel een euro of 100 heeft "verdient", als het al niet meer is...

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb vandaag eens gekeken of er misschien een omweg was om van DVI-D naar VGA te gaan. Ik heb het volgende gedaan:

Verlengkabel DVI-D (dubbel male) aangesloten op (female) DVI-D naar HMDI (female), vervolgens op (male) HMDI DVI-I (female), deze vervolgens aangesloten op (male) DVI-I op VGA (male). Alles paste perfect op elkaar en het grapje koste me €55,- en het werkte evengoed niet.
Waarschijnlijk moet er tussen de twee HMDI's een converter zitten met voeding die deze omzet, maar zo'n (echte) converter kost weer €300,- dus een digitale beeldscherm is een betere oplossing.

Gelukkig kon ik nog alles teruggeven, dus was het een gratis test. :D
Zag er ook nog eens grappig uit, ik had ff 4 converters op elkaar gemaakt.

Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 18:19

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

Verwijderd schreef op dinsdag 18 maart 2008 @ 12:05:
Ik heb vandaag eens gekeken of er misschien een omweg was om van DVI-D naar VGA te gaan. Ik heb het volgende gedaan:

Verlengkabel DVI-D (dubbel male) aangesloten op (female) DVI-D naar HMDI (female), vervolgens op (male) HMDI DVI-I (female), deze vervolgens aangesloten op (male) DVI-I op VGA (male). Alles paste perfect op elkaar en het grapje koste me €55,- en het werkte evengoed niet.
Waarschijnlijk moet er tussen de twee HMDI's een converter zitten met voeding die deze omzet, maar zo'n (echte) converter kost weer €300,- dus een digitale beeldscherm is een betere oplossing.

Gelukkig kon ik nog alles teruggeven, dus was het een gratis test. :D
Zag er ook nog eens grappig uit, ik had ff 4 converters op elkaar gemaakt.
Het is heel logisch dat het niet functioneerd en de reden is reeds gegeven. Eigenlijk snap ik niet dat het hier niet gesnapt wordt. :D DVI-D mist de reeds vier genoemde pinnen, deze pinnen bevatten het analoge signiaal waar een DVI > VGA converter gebruik van maakt. Eigenlijk is het geen converter, maar een dapater er wordt in de "adapter" namelijk niets geconverteerd. Dus wanneer de DVI aansluiting op een VGA kaart of moederbord de betreffen pinnen missen zal er geen analoof signiaal aanwezig zijn en dus zal een CRT scherm niet gaan werken op een dergelijke DVI poort.

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

  • Diablow
  • Registratie: Januari 2001
  • Laatst online: 04-04 18:56
Ik ga binnenkort mijn pc upgraden, maar mijn vga-monitor kan nog wel even mee, dus ben hier ook geïnteresseerd in. Als ik het goed begrijp heb ik dus een DVI-i aansluiting nodig wil ik mijn vga-scherm er met een convertor op aansluiten? Ook heb ik nu een s-video om het beeld naar mijn (oude) tv te zetten. Welke uitgang die je bij hedendaagse graka's ziet kan ik het best naar scart aansluiten?

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
kalizec schreef op maandag 03 december 2007 @ 12:15:
Als die vier pinnen er omheen niet gaan passen is het een DVI-I aansluiting en die kun je onmogelijk middels een verloopje omzetten naar VGA. Om DVI-VGA te ondersteunen moet de aansluiting van het type DVI-D zijn.

Lees de FAQ eens door voor meer informatie omtrent VGA, DVI en HDMI.
Doe je dat dan zelf ook even? Je haalt namelijk DVI-I en DVI-D door elkaar.

De pin-layout van DVI is als volgt:
Afbeeldingslocatie: http://tweakers.net/ext/f/5fDrrlQSLouKpvwtRebRkZtV/full.png

• DVI-D geeft alleen het digitale signaal door (DVI signaal).

• DVI-A geeft alleen het analoge signaal door (VGA signaal) en kan met een adapter worden omgezet in een VGA aansluiting. Deze variant kom je eigenlijk nooit tegen.

• DVI-I (DVI Integrated) geeft zowel het analoge als het digitale signaal door en kan dus ook met adapter worden omgezet in een VGA aansluiting.

Overigens lijkt het me sterk dat ATI een adapter had gemaakt van DVI-D dual link naar VGA, want zoals gezegd werkt dat dus niet. Zo'n adapter heeft aan de DVI kant altijd of alleen de DVI-A pinnen, of alle pinnen (DVI-I dual link), maar nooit iets anders.

@ Diablow, je hebt inderdaad een videokaart met een DVI-I aansluiting nodig. TV out zie je eigenlijk helemaal niet meer op de huidige videokaarten. Kaarten met TV out begonnen drie jaar geleden al zeldzaam te worden. Overigens heb je wel converters voor VGA naar S-video / composiet (gele tulpje), die zullen met een adapter ook wel op een DVI-I poort werken.

Acties:
  • 0 Henk 'm!

  • Diablow
  • Registratie: Januari 2001
  • Laatst online: 04-04 18:56
@ kid jansen: Bedankt.
De kaart die ik nu op het oog heb is deze, pricewatch: MSI R6850-PM2D1GD5/OC. Voor zover ik net wijzer ben geworden van wat zoeken kan een digitaal signaal meestal vrij makkelijk worden omgezet in een ander digitaal signaal, en een analoog signaal vrij makkelijk in een ander analoog signaal. De kaart heeft 4 soorten verbindingen, Displaypoort, dvi-I, dvi-D, en HDMI. Aangezien de kaart maar 1 (deels) analoog signaal heeft, kan ik dus niet op een goedkope manier mijn monitor en mijn tv op deze kaart aansluiten. Misschien dan toch mijn monitor vervangen...

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Als niet allebei de DVI poorten DVI-I zijn (of DVI-I dual link), dan kan dat niet nee.
Pagina: 1

Dit topic is gesloten.