Het grote Ubuntu Topic Deel 7 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 28 ... 31 Laatste
Acties:
  • 116.030 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Ansenyi
  • Registratie: Maart 2002
  • Laatst online: 17:08
Heeft iemand hier de 8.04.1 van ISO van Ubuntu gedownload. Ik probeerd middels jigdo mijn 8.04 naar 8.04.1 te updaten en ik mis 1 pakketje.

http://archive.ubuntu.com...2.9.0-1ubuntu2.3_i386.deb

Hij staat niet meer in de repositorie, zou iemand zo vriendelijk willen zijn deze ergens te uppen? Ik bevind mij in het buitenland waardoor de hele Image opnieuw downloaden eeuwen gaat duren.

To be, or not to be...


Acties:
  • 0 Henk 'm!

  • Dirk
  • Registratie: November 2004
  • Laatst online: 14:32

Dirk

Coördinator frontpagemoderatie
via launchpad kun je de boel effectief doorzoeken, kijk eens hier: https://launchpad.net/ubu.../xserver-xorg-video-geode

All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.


Acties:
  • 0 Henk 'm!

  • Ansenyi
  • Registratie: Maart 2002
  • Laatst online: 17:08
Thanks

2.9.0-1ubuntu2.3
SUPERSEDED: Hardy pocket Proposed in component main and section x11

* Removed from disk on 2008-07-03.
* Removal requested on 2008-07-03.
* Superseded on 2008-07-02 by xserver-xorg-video-geode - 2.9.0-1ubuntu2.4
* Published on 2008-06-28

Removed files can still be downloaded from the Librarian; see below.

Ik heb hem daar niet gevonden, maar wel hier

To be, or not to be...


Acties:
  • 0 Henk 'm!

  • Mentalist
  • Registratie: Oktober 2001
  • Laatst online: 30-08 02:04

Mentalist

[avdD]

Ansenyi schreef op donderdag 10 juli 2008 @ 16:54:
Heeft iemand hier de 8.04.1 van ISO van Ubuntu gedownload. Ik probeerd middels jigdo mijn 8.04 naar 8.04.1 te updaten en ik mis 1 pakketje.

http://archive.ubuntu.com...2.9.0-1ubuntu2.3_i386.deb

Hij staat niet meer in de repositorie, zou iemand zo vriendelijk willen zijn deze ergens te uppen? Ik bevind mij in het buitenland waardoor de hele Image opnieuw downloaden eeuwen gaat duren.
http://packages.ubuntu.com/hardy/xserver-xorg-video-geode ?

[edit]Oh, http://packages.ubuntu.co.../xserver-xorg-video-geode is de versie die je zoekt.

[ Voor 7% gewijzigd door Mentalist op 10-07-2008 18:43 ]

Verstuurd vanaf mijn Computer®


Acties:
  • 0 Henk 'm!

  • Petervanakelyen
  • Registratie: December 2006
  • Laatst online: 30-04 12:52
Ansenyi schreef op donderdag 10 juli 2008 @ 16:54:
Heeft iemand hier de 8.04.1 van ISO van Ubuntu gedownload. Ik probeerd middels jigdo mijn 8.04 naar 8.04.1 te updaten en ik mis 1 pakketje.

http://archive.ubuntu.com...2.9.0-1ubuntu2.3_i386.deb

Hij staat niet meer in de repositorie, zou iemand zo vriendelijk willen zijn deze ergens te uppen? Ik bevind mij in het buitenland waardoor de hele Image opnieuw downloaden eeuwen gaat duren.
Als je gewoon in de X omgeving geraakt, dan mag je dat pakketje gewoon wegdoen, hoor.
Het is namelijk een driver voor "geode" grafische kaarten.
Ik hou ook alleen de xserver-xorg-ati bij als ik met een ATI kaart werk.
Dan moet hij niet alle xserver drivers opnieuw gaan updaten bij een update.

Somewhere in Texas there's a village missing its idiot.


Acties:
  • 0 Henk 'm!

  • Ansenyi
  • Registratie: Maart 2002
  • Laatst online: 17:08
Ik had hem alleen maar nodig om mijn 8.04.1 Ubuntu ISO image compleet te maken ;). Hij is ondertussen al superseded, maar deze ISO resulteert in een meer up-to-date systeem na installatie.

En de 8.04.1 ISO image compleet opnieuw downloaden duurt iets te lang als je geen vaste verbinding hebt.

To be, or not to be...


Acties:
  • 0 Henk 'm!

  • Dirk
  • Registratie: November 2004
  • Laatst online: 14:32

Dirk

Coördinator frontpagemoderatie
Dirk schreef op donderdag 10 juli 2008 @ 16:31:
Heerlijk. Ik heb net een nieuw systeem met een P43 mobo en een ICH10 chipset. Hierop wilde ik een nette clean install doen, maar wanneer ik de live cd probeerde te starten belande ik telkens in busybox. Vreemd, want mijn oude installatie werkte wel gewoon.
Om een lang verhaal kort te maken, uiteindelijk kwam ik erachter dat hij mijn sata devices gewoon domweg niet zag, niet vanaf de live cd (werkte op sata) en niet vanaf mijn bestaande installatie, die op een pata schijf staat en daarom gewoon werkte. Iets waar ik totaal niet op had gerekend met een moderne linux installatie. Na nog wat verder zoeken kwam ik erachter dat de ICH10 chipset nog niet werd herkend door de standaard hardy kernel, dus ik heb maar gewoon de nieuwste gedownload en zal hem vanavond eens compileren.
En als dat werkt ook nog eens een oplossing verzinnen hoe ik die dan op de nieuwe schijf geinstalleerd krijg, want de oude moet gewoon weer terug in de oude pc...
Zo, het is gelukt, mijn sata apperatuur werkt! Alleen pakt hij nu niet meer automatisch de drivers voor mijn (draadloze) netwerkkaart en geluidskaart :S Maar dat is zorg voor later, dat wat eerst niet werkte werkt nu wel en dat is belangrijker, dingen die eerst wel en nu niet meer (goed) werken zijn makkelijker weer aan de praat te krijgen.
En nu nog de boel installeren op de nieuwe schijf, de oude zat gisteravond al vol op het moment dat ik de nieuwe kernel wilde installeren :X Sowieso opvallend: de nieuwe kernel is 500 MB, waar de oude maar 60 MB is, terwijl ik toch het config bestand van de oude kernel gebruikt heb, welke met een paar errors wel laadde...

All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.


Acties:
  • 0 Henk 'm!

  • deadinspace
  • Registratie: Juni 2001
  • Laatst online: 15:39

deadinspace

The what goes where now?

Dirk schreef op vrijdag 11 juli 2008 @ 09:50:
Sowieso opvallend: de nieuwe kernel is 500 MB [...]
Wat heb je in /boot geinstalleerd? De uitgepakte sources? :P

Acties:
  • 0 Henk 'm!

  • Dirk
  • Registratie: November 2004
  • Laatst online: 14:32

Dirk

Coördinator frontpagemoderatie
Geen idee, de .deb van de image was ook al lomp groot, dus ik zal wel wat fout hebben gedaan, zo vaak compileer ik nou ook geen kernels :P Voor de rest gewoon de instructies hier gevolgd.

Maar goed het moet sowieso nog een keertje over om de andere probleempjes op te lossen, kan ik dat direct ook meenemen. Ik heb sowieso nog lang niet alle voor mij nutteloze modules uitgeschakeld, ging mij te veel tijd in zitten voor gewoon een test, het was toch al 1 uur 's nachts voordat ik de boel goed had draaien.

All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
Volgens mij is het tooltje waar je je resolutie mee kan regelen ook nog niet heel volwassen. Ik heb een laptop staan met een Radeon 9600 ofzo (M10) waar ik een monitor op aangesloten heb. Het tooltje laat alleen toe dat het 2e scherm het eerste overlapt waardoor ik een bizarre soort clone mode heb, maar op het externe scherm de resolutie hoger is. Wanneer ik in het vlak kom dat nog wel binnen de resolutie van het laptopscherm past, heb ik de muiscursor op beide schermen, daarbuiten alleen extern. Je kunt heel leuk die schermen verslepen maar daar heeft ie lak aan. Dat is niet zo mooi, en dit zijn toch van die dingen waaraan je kunt merken dat het allemaal gewoon nog niet helemaal volwassen is.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Palomar
  • Registratie: Februari 2000
  • Niet online
idd, ik snap ubernaupt niet waarom dat erin zit. Dual monitor krijg ik op geen enkele manier werkend op verschillende pc's. Maar dat zal wel weer aan mij l iggen, want bij de echte fanboys werkt het natuurlijk als een zonnetje ;)

Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
Wat heeft het al dan niet werken van een bepaalde feature met fanboyheid te maken precies?

Acties:
  • 0 Henk 'm!

  • Fire69
  • Registratie: Juni 2001
  • Laatst online: 20:06
Idd, beetje flauwe opmerking. Maar Cyphax heeft wel gelijk, het zou toch allemaal wat stabieler en uitgebreider mogen zijn.
Ik krijg het 2de scherm wel geactiveerd, maar via de vga-out krijg ik enkel garbage op het scherm.
Via DVI->HDMI lukt het wel, maar dan moet ik bij het booten mijn laptop dichtklappen, en eens hij op het login-scherm staat kan ik hem weer opendoen, anders heb ik ook geen beeld of in de verkeerde resolutie 8)7

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
Mwah, het is wel stabiel, maar het werkt gewoon nog niet goed soms. Ik denk dat het komt omdat er zoveel verschillende projecten mee bezig zijn waartussen geen of weinig communicatie is. Dit is in mijn ogen toch wel de zwakke schakel. Een Microsoft doet dat gewoon beter. Hopelijk blijven ze dit soort zaken wel goed aandacht geven en laten ze ook zorgen dat er niet constant regressies optreden.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Fire69
  • Registratie: Juni 2001
  • Laatst online: 20:06
Kan iemand even uitleggen wat die regressions juist zijn? zie het redelijk vaak passeren bij uitdates, maar Google kan mij geen duidelijk antwoord geven.
Dingen die ze moeten terugzetten naar ervoor omdat het niet werkt of zo?

Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Regressie wil zeggen dat een oude bug/oud probleem opnieuw opduikt.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
Niet per se, het kan ook zijn dat door het fixen van een bug, bepaalde functionaliteit opeens niet meer werkt. Zie bijvoorbeeld http://www.ubuntu.com/usn/ voor een aantal voorbeelden, er wordt meestal wel uitgelegd wat de regressie precies inhield.

Acties:
  • 0 Henk 'm!

  • Fire69
  • Registratie: Juni 2001
  • Laatst online: 20:06
Is er niet ergens een goeie uitleg van dit soort dingen?
Regression, upstream patch, backports, ... voor iemand die nieuw is met Linux is het niet zo evident :P

Acties:
  • 0 Henk 'm!

  • deadinspace
  • Registratie: Juni 2001
  • Laatst online: 15:39

deadinspace

The what goes where now?

Borromini schreef op vrijdag 11 juli 2008 @ 12:29:
Regressie wil zeggen dat een oude bug/oud probleem opnieuw opduikt.
Niet helemaal, het wil zeggen dat iets dat eerst wel werkte nu niet meer werkt (ongeacht of het eerder kapot is geweest of niet).

Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
Fire69 schreef op vrijdag 11 juli 2008 @ 12:35:
Is er niet ergens een goeie uitleg van dit soort dingen?
Regression, upstream patch, backports, ... voor iemand die nieuw is met Linux is het niet zo evident :P
Wikipedia: Software regression bijvoorbeeld :)

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
Regressions zijn misschien nog wel het lastigst, zeker als je in Ubuntu 7.10 een feature goed werkend had die ineens niet meer werkt in 8.04. Dan komt het nogal over als een achteruitgang. Itt tot nieuwe features die het niet helemaal goed doen. De kernelupdates zijn ook nogal vaak (veel te vaak) oorzaak van regressies, maar het is door de opbouw van zo'n distro logisch dat het zeer moeilijk allemaal te testen is.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • monnick
  • Registratie: December 2005
  • Niet online
Ik heb een beetje lopen stoeien met fijne usenet-grabber onder Ubuntu. Na het testen van PAN, sabNZBD en HellaNZB vind ik HellaNZB toch de fijnste. Gewoon NZB in een mapje zetten en gaan!

Echter mis ik bij elke usenet grabber een functie op de PC automatisch uit te schakelen wanneer alle downloads voltooid zijn. Ook google biedt mij geen oplossing....

Iemand enig idee of ik op een of andere manier ervoor kan zorgen dat ik de PC kan uitschakelen na het voltooien van de downloads. :)

Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
Je kunt de status van hellanzb uitlezen (bijvoorbeeld via hellanzb status), en aan de hand daarvan bepalen of de computer uit moet of niet.

Acties:
  • 0 Henk 'm!

  • Theimon
  • Registratie: April 2005
  • Laatst online: 10:25

Theimon

Snapte!?

monnick schreef op zondag 13 juli 2008 @ 00:36:
Ik heb een beetje lopen stoeien met fijne usenet-grabber onder Ubuntu. Na het testen van PAN, sabNZBD en HellaNZB vind ik HellaNZB toch de fijnste. Gewoon NZB in een mapje zetten en gaan!

Echter mis ik bij elke usenet grabber een functie op de PC automatisch uit te schakelen wanneer alle downloads voltooid zijn. Ook google biedt mij geen oplossing....

Iemand enig idee of ik op een of andere manier ervoor kan zorgen dat ik de PC kan uitschakelen na het voltooien van de downloads. :)
Misschien kan je een feature request doen bij Nntpgrab (van de maker van Openftd).

Evil in general does not sleep, and therefore doesn't see why anyone else should. | There is no "i" in denial. | There is no "i" in TEAM, but there is ME!


Acties:
  • 0 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 16:39

MsG

Forumzwerver

Ik sta op het punt Ubuntu te installeren vanaf een Live CD op een stuk ongepartitioneerde ruimte van 35,47GB. Wat is nu de beste methode om dit te installeren? Gewoon als 1 partitie er op? Ik lees namelijk tegenstrijdige berichten.

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • Roamor
  • Registratie: Mei 2004
  • Niet online
MsG schreef op zondag 13 juli 2008 @ 13:30:
Ik sta op het punt Ubuntu te installeren vanaf een Live CD op een stuk ongepartitioneerde ruimte van 35,47GB. Wat is nu de beste methode om dit te installeren? Gewoon als 1 partitie er op? Ik lees namelijk tegenstrijdige berichten.
Welke berichten? Normaal gesproken is het handig om een OS partitie te hebben, en een data partitie. Dit om te voorkomen dat je bij een herinstall ook de data moet backuppen. Die 2e partitie kun je dan gewoon ongemoeid laten.

Acties:
  • 0 Henk 'm!

  • maxjuh
  • Registratie: November 2004
  • Laatst online: 19-03 15:04
MsG schreef op zondag 13 juli 2008 @ 13:30:
Ik sta op het punt Ubuntu te installeren vanaf een Live CD op een stuk ongepartitioneerde ruimte van 35,47GB. Wat is nu de beste methode om dit te installeren? Gewoon als 1 partitie er op? Ik lees namelijk tegenstrijdige berichten.
Het heeft wel voordelen om bepaalde dingen te scheiden. Zelf heb ik het zo:

/ = 10GB ext3 (waarvan ik ongeveer 5 GB gebruikt)
/boot = 100MB ext2
/home = de rest ext3
swap de grote van het geheugen

Als je nu opnieuw de boel gaat installeren laat je /home ongemoeid en kan je binnen no time weer aan de slag zoals je altijd deed.
Eerlijk gezegd weet ik niet precies waarom het een voordeel is om je /boot apart te zetten. Volgens mij heeft dat een snelheid voordeel omdat ext2 niet aan journaling doet en dit ook een beetje overbodig is omdat je haast nooit schrijft naar je /boot.

Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
Het heeft geen voordeel meer, ooit moest de volledige partitie waar de kernel op stond binnen de 1e 1024 cilinders van de schijf vallen of iets dergelijks, waardoor je op grote harde schijven je 1e partitie een kleine /boot was.

Acties:
  • 0 Henk 'm!

  • monnick
  • Registratie: December 2005
  • Niet online
Een /boot partitie had ik nog niet eerder gezien (maar ben ook niet lang actief in de Linux scene) maar lijkt me achteraf erg handig. De /boot partitie waar grub neem ik aan opstaat kan je dan delen met meerdere distro's. Zo had ik laatst Kubuntu naast Ubuntu geinstalleerd, en daar bij werd gevraagd of ik GRUB ook nog eens voor Kubuntu wilde installeren, maar dat wilde ik niet.
Daarna moest ik menu.lst van Ubuntu gaan aanpassen om Kubuntu bootable te maken, volgens mij gaat het veel makkelijker als je een aparte /boot partitie hebt. :)

Acties:
  • 0 Henk 'm!

  • maxjuh
  • Registratie: November 2004
  • Laatst online: 19-03 15:04
blaataaps schreef op zondag 13 juli 2008 @ 13:56:
Het heeft geen voordeel meer, ooit moest de volledige partitie waar de kernel op stond binnen de 1e 1024 cilinders van de schijf vallen of iets dergelijks, waardoor je op grote harde schijven je 1e partitie een kleine /boot was.
Valt daarmee ook het snelheids voordeel weg? Of kan ik dus voortaan net zo goed de /boot niet meer apart zetten?

Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
Het snelheidsvoordeel is voorzover dat bestaat sowieso al miniem volgens mij, dus daar zou ik het niet voor doen :)

Acties:
  • 0 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 16:39

MsG

Forumzwerver

Kan dit binnen de installatie of moet ik dus preventief het zo indelen alvorens de installatie te doen?

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • Hero of Time
  • Registratie: Oktober 2004
  • Laatst online: 19:44

Hero of Time

Moderator LNX

There is only one Legend

Partitieindeling kan altijd via de installer. Hier krijg je zelfs nog een vraag over, net zoals bij MS. Hoe moet het anders weten wat de indeling is en waar hij alles moet neerzetten ;).

Commandline FTW | Tweakt met mate


Acties:
  • 0 Henk 'm!

  • Theimon
  • Registratie: April 2005
  • Laatst online: 10:25

Theimon

Snapte!?

-nvm-

[ Voor 99% gewijzigd door Theimon op 13-07-2008 15:36 . Reden: lekker laat :P ]

Evil in general does not sleep, and therefore doesn't see why anyone else should. | There is no "i" in denial. | There is no "i" in TEAM, but there is ME!


Acties:
  • 0 Henk 'm!

  • deadinspace
  • Registratie: Juni 2001
  • Laatst online: 15:39

deadinspace

The what goes where now?

MsG schreef op zondag 13 juli 2008 @ 13:30:
Ik sta op het punt Ubuntu te installeren vanaf een Live CD op een stuk ongepartitioneerde ruimte van 35,47GB. Wat is nu de beste methode om dit te installeren? Gewoon als 1 partitie er op? Ik lees namelijk tegenstrijdige berichten.
Je leest tegenstrijdige berichten omdat mensen er verschillende meningen (en religies soms) op nahouden qua partities.

Wat in ieder geval erg gebruikelijk is: een aparte swap-partitie.

Een aparte /home zie je ook relatief vaak. Het voordeel is makkelijk kunnen herinstalleren van je OS (of een ander OS) met behoud van de homedirs.

Soms is een aparte /boot nodig (bijvoorbeeld als je je / op software RAID 5 wil).

Een aparte /usr, /var of /tmp komt ook nog wel eens voor, maar dit is een stuk minder gebruikelijk. Het voordeel is meer isolatie tussen de verschillende partities.


Ikzelf hou niet zo van gedoe met veel partities. Je kiest onherroepelijk de groottes suboptimaal, waardoor je ruimte verspilt. Als je / te klein is moet je moeilijk gaan lopen doen met resizen. Als hij te groot is, dan is je /home kleiner dan hij had kunnen zijn. Ik ga dan ook altijd voor / en swap, en daarmee is het wel klaar. Hoogstens nog een /boot, daar waar nodig.
monnick schreef op zondag 13 juli 2008 @ 13:58:
Daarna moest ik menu.lst van Ubuntu gaan aanpassen om Kubuntu bootable te maken, volgens mij gaat het veel makkelijker als je een aparte /boot partitie hebt. :)
Ik zie niet in waarom een aparte boot partitie dat makkelijker zou maken. Het maakt niet uit of grub die kernel images nou van een gedeelde /boot plukt, of van de / partities van de verschillende OSsen.

[ Voor 15% gewijzigd door deadinspace op 13-07-2008 18:48 ]


Acties:
  • 0 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 16:39

MsG

Forumzwerver

Dus als ik het goed begrijp moet ik alleen binnen die 35GB een swappartitie maken bij de installatie. Hoe groot zal ik zoiets doen? En heeft het wel meerwaarde als de partitie op dezelfde schijf staat?

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • maxjuh
  • Registratie: November 2004
  • Laatst online: 19-03 15:04
MsG schreef op zondag 13 juli 2008 @ 19:12:
Dus als ik het goed begrijp moet ik alleen binnen die 35GB een swappartitie maken bij de installatie. Hoe groot zal ik zoiets doen? En heeft het wel meerwaarde als de partitie op dezelfde schijf staat?
Je moet niks. Het licht er aan wat je voorkeur is. Ik vind het namelijk erg handig om mijn /home gescheiden te houden.

En de grote van je swap moet dus net zo groot zijn als je werkgeheugen.

Ik zou gewoon alles nu even op dezelfde hd houden, anders moet je aan de gang met LVM wat misschien nog iets te hoog gegrepen als beginnende Linux gebruiker. Of je zet je complete /home op een andere hd waardoor je voor je /home in ieder geval niet met LVM aan de slag hoeft.

[ Voor 25% gewijzigd door maxjuh op 13-07-2008 19:18 ]


Acties:
  • 0 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 16:39

MsG

Forumzwerver

Het idee van Linux is toch juist dat t nooit in de soep loopt (bijna)? :). Nou ja ik probeer wel even een losse partitie voor werkgeheugen. 4096MB, of moet daarvoor per se 64-Bit ubuntu zeker?

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • jelly
  • Registratie: Mei 2006
  • Laatst online: 18-09 09:19

jelly

Arch Linux

MsG schreef op zondag 13 juli 2008 @ 19:37:
Het idee van Linux is toch juist dat t nooit in de soep loopt (bijna)? :). Nou ja ik probeer wel even een losse partitie voor werkgeheugen. 4096MB, of moet daarvoor per se 64-Bit ubuntu zeker?
Elk besturingssysteem kan natuurlijk wel in de soep lopen onafhankelijk van of het bedoeld is of niet, maar elk besturingssysteem streeft er toch wel naar om niet in de soep te lopen de een werkt daar harder aan dan de ander ;)
Je hebt dus 4096MB aan werkgeheugen? lees dit dan even

Keep it simple stupid


Acties:
  • 0 Henk 'm!

  • Palomar
  • Registratie: Februari 2000
  • Niet online
Stel dat ik ubuntu en winxp op 1 pc wil installeren. Elk OS op een aparte partitie en nog een aparte partitie waarop data komt te staan die onder beide OS'en beschikbaar moet zijn. Wat is dan het beste filesysteem voor die partitie? FAT32 valt af, omdat ik daar geen grote bestanden op kan zetten. NTFS lijkt sindskort ook onder Ubuntu goed te werken (althans, de laatste keer dat ik Ubuntu probeerde kon ik ntfs alleen nog read-only mounten), dus is dit betrouwbaar genoeg om te gebruiken? Of zijn er nog alternatieven?

[ Voor 9% gewijzigd door Palomar op 13-07-2008 22:10 ]


Acties:
  • 0 Henk 'm!

  • maxjuh
  • Registratie: November 2004
  • Laatst online: 19-03 15:04
Palomar schreef op zondag 13 juli 2008 @ 22:08:
Stel dat ik ubuntu en winxp op 1 pc wil installeren. Elk OS op een aparte partitie en nog een aparte partitie waarop data komt te staan die onder beide OS'en beschikbaar moet zijn. Wat is dan het beste filesysteem voor die partitie? FAT32 valt af, omdat ik daar geen grote bestanden op kan zetten. NTFS lijkt sindskort ook onder Ubuntu goed te werken, dus is dit betrouwbaar genoeg om te gebruiken? Of zijn er nog alternatieven?
Ik zou voor NTFS gaan. Mijn externe hardeschijf gebruikt als bestandsysteem NTFS en heb daar nog nooit problemen mee gehad, voordeel is dat je dan ook makkelijk bij je bestanden kan als je hem aansluit op een Windows machine. Er zijn ook wel tools die het mogelijk maken om ext2/3 te lezen en schrijven in Windows dus dat zou je ook nog als een optie kunnen zien.

Acties:
  • 0 Henk 'm!

  • Roamor
  • Registratie: Mei 2004
  • Niet online
FAT32 gaat tot 4GB, dus tenzij je met BR-images gaat werken kun je daar een eind mee komen. :)

Acties:
  • 0 Henk 'm!

  • Hero of Time
  • Registratie: Oktober 2004
  • Laatst online: 19:44

Hero of Time

Moderator LNX

There is only one Legend

Roamor schreef op zondag 13 juli 2008 @ 22:13:
FAT32 gaat tot 4GB, dus tenzij je met BR-images gaat werken kun je daar een eind mee komen. :)
BR hoeft niet eens, een standaard DVD ISO is al meer dan 4 GB (4,3 namelijk) en vaak worden zelfs DVD9 images gebruikt. Daarnaast heb je bij virtuele machines ook nog eens grote bestanden (hoewel VMWare deze opsplitst in 2 GB bestanden).

Ik gebruik zelf ook NTFS voor mijn data partitie, geen enkel probleem ermee. Sterker nog, de grootste problemen komen eigenlijk bij Windows zelf vandaan. Bij het afsluiten vandaag kreeg ik leuk de melding dan een VDI bestand (harde schijf van VirtualBox) corrupt is en checkdisk moet draaien. Lekker dan, net een defrag gedaan en nu al weer een bestand naar de klote. Geen gezeur hierover met Linux iig :+.

Commandline FTW | Tweakt met mate


Acties:
  • 0 Henk 'm!

  • Quincy5
  • Registratie: November 2006
  • Laatst online: 19-09 14:40
Palomar schreef op zondag 13 juli 2008 @ 22:08:
Stel dat ik ubuntu en winxp op 1 pc wil installeren. Elk OS op een aparte partitie en nog een aparte partitie waarop data komt te staan die onder beide OS'en beschikbaar moet zijn. Wat is dan het beste filesysteem voor die partitie? FAT32 valt af, omdat ik daar geen grote bestanden op kan zetten. NTFS lijkt sindskort ook onder Ubuntu goed te werken (althans, de laatste keer dat ik Ubuntu probeerde kon ik ntfs alleen nog read-only mounten), dus is dit betrouwbaar genoeg om te gebruiken? Of zijn er nog alternatieven?
Hier nog iemand die NTFS aanbeveelt. Ik had windows (in mijn geval Vista) eerder en omdat beide partities op die schijf al bijna vol waren toen ik aan Ubuntu begon heb ik hiervoor gewoon een nieuwe schijf gekocht en een 2 ext3 partities gemaakt (een voor het OS en een voor data). Ook nooit problemen met NTFS gehad.
Het enige is (en dat heeft denk ik niet eens met NTFS te maken) dat ik de partities geforceerd moet mounten als windows in hibernate staat. Sinds ik windows bijna nooit meer gebruik heb ik daar ook geen last meer van.

[ Voor 10% gewijzigd door Quincy5 op 13-07-2008 22:23 ]

PV Output


Acties:
  • 0 Henk 'm!

  • Palomar
  • Registratie: Februari 2000
  • Niet online
ok thx. Had al een vermoeden dat ntfs wel een goede keus zou zijn, omdat ik er nu idd ook geen problemen mee heb met mn test-installatie (externe schijf en gemounte windows-partities). Ik was er niet helemaal zeker over, omdat ntfs een gesloten formaat is (toch?) en het voorheen nooit betrouwbaar scheen te werken als je erop wilde schrijven met Linux. Maar kennelijk is het 'geheim' van ntfs ontdekt en werkt ntfs nu goed onder linux ;)

Acties:
  • 0 Henk 'm!

  • Jouke74
  • Registratie: Juni 2006
  • Laatst online: 03-04 19:54
NTFS werkt nu goed. Het enige probleem is dat, wanneer er file-system problemen bestaan omdat een van beide OSen (Windows Xp of Ubuntu) een fout geeft in het NTFS systeem, dan mount Ubuntu de partitie niet meer. Hibernate is hier denk ik een voorbeeld van omdat het journal (veranderde files) niet meer matcht met wat er op schijf staat (indien iemand hier meer van weet typ het alsjeblieft). In dat geval voldoet een restart en echt afsluiten onder windows of een chkdsk in geval van fouten. Onder Ubuntu heb ik de file system correctie tools nog niet geprobeerd om de disk weer een mount te geven. Hibernate gebruik ik niet, ik sluit altijd netjes af, dus dat pobleem heb ik niet echt. Ik heb nu twee NTFS partities die beiden al een jaar goed draaien onder beide systemen.

FAT32 werkt trouwens ook goed, maar heeft als grote nadeel de 4 GB limiet en de slechtere data recovery. in vergelijking met EXT3 werken beide systemen trouwens iets langzamer in mijn opinie.

"That was left handed..." - JJH


Acties:
  • 0 Henk 'm!

  • Mentalist
  • Registratie: Oktober 2001
  • Laatst online: 30-08 02:04

Mentalist

[avdD]

Jouke74 schreef op zondag 13 juli 2008 @ 22:48:
NTFS werkt nu goed. Het enige probleem is dat, wanneer er file-system problemen bestaan omdat een van beide OSen (Windows Xp of Ubuntu) een fout geeft in het NTFS systeem, dan mount Ubuntu de partitie niet meer.
Dit kan je forceren, dat hielp bij mij.

Ik heb wel pas onder Ubuntu een berg files (waar ook een WinXP install inzat) overgezet met ntfs-3g, de resulterende partitie kon ook prima booten. Er kwamen toen helaas wel een paar fouten van $MFT$, maar verder deed vrijwel alles het.

Na een herstart wou Windows echter dolgraag checkdisk draaien, en toen ie daar klaar mee was had ie zichzelf van kant gemaakt. De partitie kon niet meer starten. Dus ik zou je adviseren.. Als je met ntfs-3g aan de slag gaat, draai dan voor de zekerheid nevernooit meer checkdisk onder Windows. En liever ook geen defrag ofzo. Gewoon geen "rare" dingen meer doen onder Windows want Windows kent z'n eigen FS schijnbaar niet zo goed. Nu ben ik wel ver gegaan door de hele Windows install met ntfs-3g over te zetten, maar toch. Onder Ubuntu heb ik met ntfs-3g verder geen problemen gehad, alleen één of andere feature die niet aanwezig was die Wine nodig had ergens voor. Toen ik het betreffende programma (patch voor GTA:SA iirc) draaide vanaf een ext3 partitie was er geen vuiltje meer aan de lucht. :)

Verstuurd vanaf mijn Computer®


Acties:
  • 0 Henk 'm!

  • Petervanakelyen
  • Registratie: December 2006
  • Laatst online: 30-04 12:52
Heb nog nooit problemen gehad met NTFS.
Al verschillende XP, Vista, en Win2000 installatie's gehad, waar Ubuntu perfect mee overweg kon.

Ook in het geval van een NTLDR is missing fout op een XP installatie, of door hibernate, of fout afsluiten, geeft Ubuntu de melding dat je 'niet kan mounten' maar hij zet er zelf bij de details bij welke commandoregel je moet uitvoeren in een terminal, voor force mount !!

Heb wel iets raars:

Het programma gparted, een linux tool voor partities, geeft bij mij geen NTFS ondersteuning.
Terwijl ik perfect in mijn NTFS windows partitie kan doen wat ik wil ?

Heeft gparted dan een apart pakket nodig voor NTFS ?

Somewhere in Texas there's a village missing its idiot.


Acties:
  • 0 Henk 'm!

  • MaximusTG
  • Registratie: April 2003
  • Niet online
(overleden)
Zie ook:
http://ubuntuforums.org/showthread.php?t=656443

code:
1
sudo apt-get install ntfsprogs

Zin in pizza? Probeer 'mijn' pizzarecept eens! Laatste versie pizzarecept Blog:KookKompas


Acties:
  • 0 Henk 'm!

  • Eusebius
  • Registratie: November 2001
  • Niet online
Is het niet zo dat als Win opstart, hij de NTFS partitie 'bezet´ houdt? Als je dan een crash / niet volledige afsluiting van je pc / spontane reboot krijgt, dan is de status van de schijf nog steeds 'bezet'. Die status moet er eerst af, voordat een linux erbij kan.

Even een leuke tip die ik net ontdekte in de repo's: pysdm. Ja, ik ben verslaafd aan GUI's en hiermee kun je met een GUI de fstab bewerken ;-)

==
hoi


Acties:
  • 0 Henk 'm!

  • Palomar
  • Registratie: Februari 2000
  • Niet online
Schiet me trouwens ineens te binnen dat ik wel een keer gehad heb dat na een crash van Ubuntu ik in windows mijn D:-schijf niet kon benaderen met melding permission denied oid. Weet niet meer hoe dit is opgelost. Kan best zijn dat het na een reboot weer goed was.. (was op mn test pc, waarbij ik me om dit soort dingen niet zo druk maak ;)).

Overigens nu ik het over die crash in Ubuntu heb. Een tijdje geleden zat ik nogal te jammeren in dit topic dat het allemaal onverklaarbaar zo brak werkte: Palomar in "Het grote Ubuntu Topic Deel 7" ;) Nu heb ik vermoedens dat dit komt omdat de harddisk vol zat (draai nl. nog steeds een test-install op een windows-partitie). Gisteren had ik nl. weer dat mn firefox bookmarks weg waren. Toen ik een bookmarks-backup terug wilde zetten kreeg ik ineens een melding dat dat niet kon, vanwege geen schijfruimte. Toen een aantal gedownloade films verwijderd en mn bookmarks waren ook ineens weer terug :) Ik heb vermoedens dat andere vage problemen die ik eerst had (zie de post die ik noem) ook te maken hadden met te weinig schijfruimte (ze traden nl. op nadat ik transmission bittorrent een tijdje draaide... en die reserveert in 1 keer de volledige grootte van de nog te downloaden bestanden).

Blijft wel de vraag: is het normaal dat je geen waarschuwing krijgt dat je schijf vol is (zoals in windows, zo'n ballonnetje) en mag dit zomaar als gevolg hebben dat bestaande data (zoals bookmarks) verloren raken en dat zelfs het systeem vastloopt en niet meer wil opstarten?

Acties:
  • 0 Henk 'm!

  • Petervanakelyen
  • Registratie: December 2006
  • Laatst online: 30-04 12:52
Palomar schreef op maandag 14 juli 2008 @ 12:27:
Schiet me trouwens ineens te binnen dat ik wel een keer gehad heb dat na een crash van Ubuntu ik in windows mijn D:-schijf niet kon benaderen met melding permission denied oid. Weet niet meer hoe dit is opgelost. Kan best zijn dat het na een reboot weer goed was.. (was op mn test pc, waarbij ik me om dit soort dingen niet zo druk maak ;)).

Overigens nu ik het over die crash in Ubuntu heb. Een tijdje geleden zat ik nogal te jammeren in dit topic dat het allemaal onverklaarbaar zo brak werkte: Palomar in "Het grote Ubuntu Topic Deel 7" ;) Nu heb ik vermoedens dat dit komt omdat de harddisk vol zat (draai nl. nog steeds een test-install op een windows-partitie). Gisteren had ik nl. weer dat mn firefox bookmarks weg waren. Toen ik een bookmarks-backup terug wilde zetten kreeg ik ineens een melding dat dat niet kon, vanwege geen schijfruimte. Toen een aantal gedownloade films verwijderd en mn bookmarks waren ook ineens weer terug :) Ik heb vermoedens dat andere vage problemen die ik eerst had (zie de post die ik noem) ook te maken hadden met te weinig schijfruimte (ze traden nl. op nadat ik transmission bittorrent een tijdje draaide... en die reserveert in 1 keer de volledige grootte van de nog te downloaden bestanden).

Blijft wel de vraag: is het normaal dat je geen waarschuwing krijgt dat je schijf vol is (zoals in windows, zo'n ballonnetje) en mag dit zomaar als gevolg hebben dat bestaande data (zoals bookmarks) verloren raken en dat zelfs het systeem vastloopt en niet meer wil opstarten?
Ik heb het in Hardy & Gutsy nog niet gezien, omdat m'n harde schijf nooit vol zit, maar weet nog een keer dat ik Feisty op een 7.5GB HDD heb gezet, en dat ie na een tijd na elke opstart begon te klagen dat / vol zat...

Somewhere in Texas there's a village missing its idiot.


Acties:
  • 0 Henk 'm!

  • Mentalist
  • Registratie: Oktober 2001
  • Laatst online: 30-08 02:04

Mentalist

[avdD]

Wel erg ranzig dat bug #221499 nog steeds niet gefixt is. De RTL8111 zit op belachelijk veel moederborden onboard, o.a. mijn Asrock 939SLI32 en MSI K9AG Neo 2. Zag ik pas dat iemand een Asus M2A-VM had gekocht en wat denk je..? Die chip is gewoon extreem populair om onboard te plaatsen, en juist in een LTS release is ie gebroken..

Ik gebruik nu uit armoede maar een WiFi USB stick die ik min of meer speciaal heb gekocht omdat ik m'n onboard LAN niet kan gebruiken. :X

Verstuurd vanaf mijn Computer®


Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben ineens mijn 'sluit/minimaliseren/maximaliseren' knoppen en de hele bijbehorende balk kwijt. Enig idee hoe ik dat terug krijg? Elke window heeft het, getest met meerdere programma's.

Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Verwijderd schreef op dinsdag 15 juli 2008 @ 10:29:
Ik ben ineens mijn 'sluit/minimaliseren/maximaliseren' knoppen en de hele bijbehorende balk kwijt. Enig idee hoe ik dat terug krijg? Elke window heeft het, getest met meerdere programma's.
Probeer eens voor de gein een ander theme in te stellen? Wellicht helpt dat...

Vicariously I live while the whole world dies


Acties:
  • 0 Henk 'm!

  • Fire69
  • Registratie: Juni 2001
  • Laatst online: 20:06
Kijk in CCSM eens of je Window Decorator nog aangevinkt staat. (in de veronderstelling dat je Compiz draait natuurlijk :) )
Heb ik ook eens gehad zonder reden...

Acties:
  • 0 Henk 'm!

Verwijderd

Hmmm, het was iets anders. Het probleem ligt inderdaad bij Compiz, het was iets met loose binding en indirect rendering. Toen ik daar even mee had zitten klooien werkte ineens alles weer.

Ik vroeg me ook af hoe je een schijf partitioneert (ben een linux n00b). Ik heb nu 1 schijf in mn laptop nog met FAT gepartitioneerd met allerlei windows troep erop die er allemaal af mag. Hoe ga ik dat voor elkaar krijgen?

[ Voor 37% gewijzigd door Verwijderd op 15-07-2008 10:48 ]


Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
Je weet dat dat soort vragen makkelijk te vinden is met bijvoorbeeld google of zoeken op de ubuntuforums? Je bent natuurlijk niet de eerste die wil partitioneren met ubuntu.

Acties:
  • 0 Henk 'm!

  • MaximusTG
  • Registratie: April 2003
  • Niet online
(overleden)
Is het misschien een goed moment om over te gaan naar een "Het grote Ubuntu topic deel 8", en meteen wat strenger toe te zien op simpele vragen als die van Koekiee? Zie het nu steeds vaker in dit topic, en dat vind ik toch wel jammer..

Zin in pizza? Probeer 'mijn' pizzarecept eens! Laatste versie pizzarecept Blog:KookKompas


Acties:
  • 0 Henk 'm!

  • jelly
  • Registratie: Mei 2006
  • Laatst online: 18-09 09:19

jelly

Arch Linux

MaximusTG schreef op dinsdag 15 juli 2008 @ 11:33:
Is het misschien een goed moment om over te gaan naar een "Het grote Ubuntu topic deel 8", en meteen wat strenger toe te zien op simpele vragen als die van Koekiee? Zie het nu steeds vaker in dit topic, en dat vind ik toch wel jammer..
Tja en de waarschuwing bij het posten staat er ook al zo lang, het is misschien ook wel handig om extra info te zetten in de OP. Zoals bijvoorbeeld over Compiz fusion, etc.

[ Voor 11% gewijzigd door jelly op 15-07-2008 13:21 ]

Keep it simple stupid


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
Heeft iemand eigenlijk gedachten of ideeën over problemen die zich voordoen (al dan niet in de vorm van een regressie) zoals je die ziet op de Brainstormpagina van Ubuntu (http://brainstorm.ubuntu.com/) maar waar Canonical van zegt: die kunnen wij niet oplossen? Het beste voorbeeld is wellicht het meest populaire idee: "Fix Suspend and Hibernate". Men heeft daar aangegeven dat het wel ERG lastig wordt om het goed werkend te krijgen omdat sommige drivers gesloten zijn. Tegelijkertijd breken nieuwe kernelreleases de boel ook nog weleens omdat ze weigeren een stabiele API te leveren.

Ik maak me een beetje zorgen om het feit dat ze bij Canonical daar weinig invloed op kunnen uitoefenen. Nu is dat laatste logisch en maar goed ook, onafhankelijkheid van elk team vind ik ook belangrijk, maar Ubuntu wordt steeds groter, en het aantal gebruikers dat problemen ondervindt daarmee ook. Er zijn dus een aantal zaken die erg moeilijk opgelost kunnen worden, soms omdat de ontwikkeling van een afhankelijkheid (bijvoorbeeld X ofzo) te langzaam gaat. Intussen wil Canonical elk halfjaar een nieuwe versie pushen maar dit probleem begint onderhand toch zorgwekkend te worden, althans, zo zie ik het. Wat kunnen ze nou doen bij Canonical om toch op de een of andere manier de ontwikkelteams (kernel, Gnome, zijzelf, etc) te laten samenwerken? De kernelontwikkelaars hebben al met al natuurlijk weinig te winnen door hun eigen werkwijze aan te passen, en datzelfde geldt voor de andere pakketten die losstaand worden ontwikkeld. Maarja, intussen krijgt Canonical steeds meer te verduren mbt dit soort problemen waar zij zelf niet zo heel veel aan kunnen doen. Toch zijn alle problemen die zich voordoen een negatieve ervaring met hun OS, of ze er nu wat aan kunnen doen of niet. Wellicht doen ze iets niet goed?

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Neo
  • Registratie: Juli 2003
  • Laatst online: 19:46

Neo

Dat wordt inderdaad een steeds groter probleem en aan de oproep van Shuttleworth is geen gehoor gegeven (of in ieder geval niet genoeg). Dus voorlopig zal er nog geen oplossing komen. Of iedereen moet zich gaan aanpassen aan het halfjaarrelease schema van Ubuntu of andersom. Elk half jaar een stabiele release uitbrengen gaat gewoon niet.

Acties:
  • 0 Henk 'm!

  • Roamor
  • Registratie: Mei 2004
  • Niet online
Ligt de bron van die problematiek dan niet bij de fabrikanten, die weigeren om medewerking te verlenen om hun drivers ook voor Linux uit te brengen? Dit levert vaak de grootste belemmering op, iets wat alleen maar op te lossen lijkt door een grotere userbase. Als ze die circel weten te doorbreken (geld?) zal het een stuk soepeler gaan.

Acties:
  • 0 Henk 'm!

  • Jungian
  • Registratie: Juni 2006
  • Niet online

Jungian

>_<

Bericht voor alle lezers :
Lees eerst alles goed door voordat je gaat flamen 8)
Cyphax schreef op dinsdag 15 juli 2008 @ 15:04:
Tegelijkertijd breken nieuwe kernelreleases de boel ook nog weleens omdat ze weigeren een stabiele API te leveren.
Ik vraag me soms echt af of Linus en de andere kernel-devs uberhaupt wel eens diep hebben nagedacht over de subsystemen die ze inelkaar gezet hebben. Ze zijn namelijk blijkbaar constant ontevreden met hetgeen ze in elkaar gezet hebben. :+

Wat vanuit een business-oogpunt ook niet meehelpt is dat bedrijven die bij gratie Gods nog een closed-source drivers/stuk closed-source software schrijven onafgebroken "gestalkt" worden door RMS en zijn gestoorde leger van kelderbewoners. Wie wil er immers dat er werkende software en drivers zijn ? [GNU-propaganda heb ik even geen behoefte aan] Het is veel belangrijker om alles open source te hebben, zodat we de 1% van de mensen die iets aan die source-code heeft tevreden kunnen stellen. We kunnen veel beter een distributie als gNewSense gebruiken, waarbij we gericht hardware moeten kopen (want : geen drivers), je geen content kan afspelen (immers : EVIL closed-source of non-free codecs) en het internet niet meer dan wat scripting-taaltjes + HTML is (multimedia = big no no).

Mocht je niet blij zijn met drivers (als er al drivers zijn) van een bepaald product, dan hoef je je als FOSS-user vooral niet speciaal te voelen : laat gewoon je portemonnee spreken.
Ik maak me een beetje zorgen om het feit dat ze bij Canonical daar weinig invloed op kunnen uitoefenen. [...]
Canonical kan weinig anders doen dan niet de laatste onwikkelingen opnemen in Ubuntu (wat ze niet lijken te doen). Het grote probleem met GNU/Linux is (zoals je aangeeft) dat het een moving target is, op ALLE vlakken. Als het al niet de kernel is, dan zijn het wel grote wijzigingen in één van de populaire DE’s of komt er bijvoorbeeld een geluidsdaemon bij (daarover kan ik al een heel boek schrijven).

Om qua GUI-usability op het niveau van Windows/OS X te komen is er ook nog een lange weg te gaan. Dit soort schermpjes zijn nog steeds aan de orde van de dag. Wat daarbij hartstikke “handig” is is dat er zoveel keuze is : wie wil immers niet dat precies dezelfde nieuwe, spannende feature op een andere manier (andere toolkit bijv.) in zowel KDE/GNOME geïmplementeerd wordt ? Nutteloze keuzes in plaats van optimalisatie en stabilisatie. *O*

Laten we vooral niet stoppen bij alleen de GUI, want het is ook uitermate belangrijk om een paar honderd package managers te hebben, met elk een paar (waarom ook niet ?) frontends. Dat kleine, specifieke distro's zoals ArchLinux hun eigen package manager gebruiken is nog iets waar ik enig nut in zou kunnen zien, maar waarom kunnen de grote spelers na al die jaren nog steeds geen standaard-oplossing gebruiken (ook lachen : RPM != RPM) ?

Zonder centrale sturing of nieuwe, invloedrijke personen zal het altijd bij de huidige regressie-puinhoop blijven. Bedrijven en developers hebben een stabiel platform op alle fronten nodig. Ze willen geen GTK+ en QT-frontend schrijven, ze willen geen rekening houden met meerdere geluidsdaemons, ze willen geen rekening houden met elke nieuwe/oude X-versie met elk z’n eigen quirks (en zo kan ik nog wel weer even doorgaan). Gebruikers willen geen onzin met hun videokaart-drivers elke update (doen alsof de Intel-driver heilig is = oogkleppen-modus) omdat er weer eens iets @ kernel/X-niveau gewijzigd is, ze willen dat hun geluidskaart werkt, ze willen dat hun pc het feilloos blijft doen na een willekeurige kernel-release (ook hier een etc.).

Mijn grootste aanbeveling : jaag closed-source driver/software niet tegen je in het harnas (X vs NVIDIA is hot nu), maar probeer juist samen te werken met deze bedrijven om een zo goed mogelijk product af te leveren.

[Dit was een draf-bericht, maar ik vond het wel mooi van vandaag]

0.0


Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Neo schreef op woensdag 16 juli 2008 @ 00:05:
Dat wordt inderdaad een steeds groter probleem en aan de oproep van Shuttleworth is geen gehoor gegeven (of in ieder geval niet genoeg). Dus voorlopig zal er nog geen oplossing komen. Of iedereen moet zich gaan aanpassen aan het halfjaarrelease schema van Ubuntu of andersom. Elk half jaar een stabiele release uitbrengen gaat gewoon niet.
Ik begrijp ook niet zo goed waarom er PER SE elk half jaar een nieuwe release moet worden uitgebracht. Vaak maken die nieuwe releases meer kapot dan ze fixen. Bij een upgrade van 7.10 naar 8.04 heb ik dat halve ding naar de kloten geholpen en ben ik ruim een halve dag bezig geweest om alles te fixen (mijn hdb1 mountte niet meer automatisch, xserver opnieuw configureren (waarom is daar nog steeds geen fatsoenlijke tool voor? Ik kan verdomme alleen mn resolution aanpassen, de juiste zit er dan niet tussen en dan kan ik weer met dpkg-reconfigure mn x server handmatig lopen verneuken), samba client die niet meer werkte etc. etc.)

Als ze nou gewoon een nieuwe release doen zodra daar aanleiding voor is en zodra alles goed getest is leidt dit volgens mij tot een veel hogere tevredenheid onder de gebruikers. Niemand zit te wachten om zn hele computer weer overhoop te halen na een nieuwe release.

Vicariously I live while the whole world dies


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
Jungian schreef op woensdag 16 juli 2008 @ 01:30:
Bericht voor alle lezers :
Lees eerst alles goed door voordat je gaat flamen 8)
Check!
Ik vraag me soms echt af of Linus en de andere kernel-devs uberhaupt wel eens diep hebben nagedacht over de subsystemen die ze inelkaar gezet hebben. Ze zijn namelijk blijkbaar constant ontevreden met hetgeen ze in elkaar gezet hebben. :+
Ze hebben er wel over nagedacht maar ze weigeren gewoon een stabiele API (en stabiel is dan: niet-veranderend zodat er allerhande drivers ineens bijgewerkt moeten worden) te leveren, omdat ze er niet op een later tijdstip op vast willen zitten. Neemt niet weg dat je je nog maar af moet vragen of A nou verstandiger is, of toch maar B. Ik neig naar het laatste eigenlijk, volgens mij kunnen ze prima een API samenstellen die ook op de toekomst is voorbereid en voorlopig echt niet hoeft te veranderen.
Wat vanuit een business-oogpunt ook niet meehelpt is dat bedrijven die bij gratie Gods nog een closed-source drivers/stuk closed-source software schrijven onafgebroken "gestalkt" worden door RMS en zijn gestoorde leger van kelderbewoners. Wie wil er immers dat er werkende software en drivers zijn ? [GNU-propaganda heb ik even geen behoefte aan] Het is veel belangrijker om alles open source te hebben, zodat we de 1% van de mensen die iets aan die source-code heeft tevreden kunnen stellen. We kunnen veel beter een distributie als gNewSense gebruiken, waarbij we gericht hardware moeten kopen (want : geen drivers), je geen content kan afspelen (immers : EVIL closed-source of non-free codecs) en het internet niet meer dan wat scripting-taaltjes + HTML is (multimedia = big no no).
:D
Eh ik ben ook liefhebber van vrije software, begrijp me niet verkeerd, maar RMS gaat ook in mijn ogen wel heel erg ver. Da's zijn goed recht natuurlijk ook weer, en naar mijn idee hebben we veel te danken aan deze man dus ik heb daar respect voor, maar ik heb niet zo'n heel groot probleem met gesloten software (als het maar gratis is :+). Open source alternatief heeft, mits kwalitatief voldoende, de voorkeur, maargoed. Maar ook al leveren ze geen gesloten software mee in een distro als Ubuntu, de weg er naartoe moet niet ingewikkeld worden. Zo is het tegenwoordig niet meer zo lastig om een mp3 codec te installeren (dat gaat in theorie altijd automatisch), en je hoeft ook niet zoveel zelf te doen om een gesloten driver voor je videokaart te installeren. Naar dit soort kritieken wordt wel geluisterd, maar het is een kleine bottleneck imo. Het afspelen van mp3 en dvd wordt als vanzelfsprekend gezien, maar een stock installatie van de meeste distro's kunnen het gewoon niet.
Canonical kan weinig anders doen dan niet de laatste onwikkelingen opnemen in Ubuntu (wat ze niet lijken te doen). Het grote probleem met GNU/Linux is (zoals je aangeeft) dat het een moving target is, op ALLE vlakken. Als het al niet de kernel is, dan zijn het wel grote wijzigingen in één van de populaire DE’s of komt er bijvoorbeeld een geluidsdaemon bij (daarover kan ik al een heel boek schrijven).
Ik heb persoonlijk ook liever dat ze bij Ubuntu niet gelijk alle laatste ontwikkelingen maar opnemen, behalve als ze die goed kunnen testen. En dat gaat dus mis. En als het niet gelijk mis gaat, dan wel later. Zo kan ik tegenwoordig mijn laptop niet meer afsluiten: cifs/smb crasht ALTIJD, en wel op 2 laptops en een desktop. Waardeloos. Dual screen werkt niet echt op 2 laptops, maar de tv-out van mijn desktop (bij de tv, htpc dus) werkt wel perfect. Is een oudere ubuntu, ik upgrade 'm maar niet, de kans is weer groot dat het, door het nieuwe tooltje en xrandr gewoon niet meer gaat werken, en dan ben ik weer uren kwijt om het werkend te maken, of om te concluderen dat het ook gewoon niet gaat werken omdat de software domweg niet af is of omdat de drivers niet goed zijn.
Om qua GUI-usability op het niveau van Windows/OS X te komen is er ook nog een lange weg te gaan. Dit soort schermpjes zijn nog steeds aan de orde van de dag. Wat daarbij hartstikke “handig” is is dat er zoveel keuze is : wie wil immers niet dat precies dezelfde nieuwe, spannende feature op een andere manier (andere toolkit bijv.) in zowel KDE/GNOME geïmplementeerd wordt ? Nutteloze keuzes in plaats van optimalisatie en stabilisatie. *O*
Wat dat betreft vind ik ze van Gnome toch wel goed bezig zijn, die hebben zich een flinke tijd gestort op optimalisaties waardoor heel Gnome sneller werd. En de usability is op sommige punten niet optimaal, maar dat geldt voor Windows sowieso ook nog wel, en OS X zal ook wel een paar ruwe kantjes hebben.
Laten we vooral niet stoppen bij alleen de GUI, want het is ook uitermate belangrijk om een paar honderd package managers te hebben, met elk een paar (waarom ook niet ?) frontends. Dat kleine, specifieke distro's zoals ArchLinux hun eigen package manager gebruiken is nog iets waar ik enig nut in zou kunnen zien, maar waarom kunnen de grote spelers na al die jaren nog steeds geen standaard-oplossing gebruiken (ook lachen : RPM != RPM) ?
Hier ben ik het ook weer mee eens, maar of het echt in de weg zit weet ik niet. Ubuntu is nu zo groot dat iedereen wel packages maakt voor Ubuntu. Dat ze dan ook rpm's, tgz en weet ik veel wat nog meer maken is prima. Punt is, als je Ubuntu hebt (gaat het in dit topic in ieder geval even om) zit je wel goed. Dat er meerdere packagetools zijn hoeft ook niet zo'n groot probleem te zijn, als je er maar niet standaard 6 hebt. Bij Ubuntu vind ik het vrij redelijk geregeld. Synaptic is er voor als Add/Remove software niet voldoet (die vindt vreemdgenoeg niet alle software, en individuele libraries al helemaal niet) en gdebi is handig voor losse .deb-files. Evenwel zorgt deze fragmentatie wellicht voor vertragingen. Alle inspanningen worden ontzettend verdeeld over verschillende stukken software en als die niet samen (kunnen) werken, dan vraag je op gegeven moment om problemen.
Zonder centrale sturing of nieuwe, invloedrijke personen zal het altijd bij de huidige regressie-puinhoop blijven. Bedrijven en developers hebben een stabiel platform op alle fronten nodig. Ze willen geen GTK+ en QT-frontend schrijven, ze willen geen rekening houden met meerdere geluidsdaemons, ze willen geen rekening houden met elke nieuwe/oude X-versie met elk z’n eigen quirks (en zo kan ik nog wel weer even doorgaan). Gebruikers willen geen onzin met hun videokaart-drivers elke update (doen alsof de Intel-driver heilig is = oogkleppen-modus) omdat er weer eens iets @ kernel/X-niveau gewijzigd is, ze willen dat hun geluidskaart werkt, ze willen dat hun pc het feilloos blijft doen na een willekeurige kernel-release (ook hier een etc.).
Spijker op z'n kop wat mij betreft. Het lijkt mij ook verstandig dat er op z'n minst standaarden zijn zoals opendesktop (heet ie zo?) waar Gnome zich zoveel mogelijk aan houdt, en bijvoorbeeld Xfce ook (en KDE vast ook wel). Die zijn zo belangrijk als de ontwikkeling voor dit platform goed moet lopen, maar voor de kernel hoeven we die alvast gewoon niet te verwachten helaas (wel net effe een hele belangrijke).
Mijn grootste aanbeveling : jaag closed-source driver/software niet tegen je in het harnas (X vs NVIDIA is hot nu), maar probeer juist samen te werken met deze bedrijven om een zo goed mogelijk product af te leveren.
De mensen bij Canonical zullen bedrijven niet in het harnas jagen toch? In ieder geval is een samenwerking zeker belangrijk. Dat RMS het er dan niet mee eens is, daar kan ik persoonlijk wel mee leven. Voor hem geldt net als voor ieder ander: je hoeft het niet te gebruiken. Intussen wil ik graag mijn PC fatsoenlijk kunnen benutten, en closed software is niet per definitie evil.
Vicarious schreef op woensdag 16 juli 2008 @ 08:44:
Ik begrijp ook niet zo goed waarom er PER SE elk half jaar een nieuwe release moet worden uitgebracht.
Dat is een keuze die ze hebben gemaakt, ze willen graag van verschillende pakketten de release schedules een beetje synchroniseren. Het voortouw hebben ze zelf gepakt door te syncen met Gnome. Op zich niet onaardig, ware het niet dat de schedules van andere ontwikkelaars bepaald niet synchroon zijn hiermee waardoor je dus bij elke release zit met software die niet af is omdat 1.0 pas over 2 maanden uitkomt, of software die verouderd is, maarja wil je die nog supporten?

Dit probleem probeert Shuttleworth op te lossen door meer ontwikkelaars zover te krijgen om bijvoorbeeld elk half jaar een major release te pushen, die dan goed getest is. Als 'm dat lukt denk ik dat veel van die regressies afgelopen zullen zijn eigenlijk.
Bij een upgrade van 7.10 naar 8.04 heb ik dat halve ding naar de kloten geholpen en ben ik ruim een halve dag bezig geweest om alles te fixen (mijn hdb1 mountte niet meer automatisch, xserver opnieuw configureren (waarom is daar nog steeds geen fatsoenlijke tool voor? Ik kan verdomme alleen mn resolution aanpassen, de juiste zit er dan niet tussen en dan kan ik weer met dpkg-reconfigure mn x server handmatig lopen verneuken), samba client die niet meer werkte etc. etc.)
Omdat het op dat moment dus nog niet klaar is. Ik weet niet hoe duidelijk ze het bij bijv. X.org maken wat er wel en niet werkt, maar het is gewoon nog niet klaar. En de vraag is of het in oktober wel klaar is. Ik twijfel daar intussen aan, want ook bij mij werken veel te veel zaken in nieuwere releases van Ubuntu niet, die het in de vorige gewoon prima deden.
Als ze nou gewoon een nieuwe release doen zodra daar aanleiding voor is en zodra alles goed getest is leidt dit volgens mij tot een veel hogere tevredenheid onder de gebruikers. Niemand zit te wachten om zn hele computer weer overhoop te halen na een nieuwe release.
Ze kunnen best elk half jaar releasen wat mij betreft, ze plannen alles gewoon helemaal in. Wat ze van mij wel zouden mogen doen, is wat terughoudender zijn met nieuwe dingen. Een nieuwe geluidsdaemon? Da's vet, maar test het eerst maar eens voor het in zo'n major release komt. Ik heb toch liever de oude software waarvan ik weet dat het goed werkt. Bij Canonical smakken ze er wel nieuwe software in die zich nog niet heeft bewezen.

Misschien moeten ze elk half jaar 2 releases doen. Een conservatievere stabielere (qua functionaliteiten) release (met wat oudere software), en een experimentele release. Alle nieuwe software moet zich kunnen bewijzen, maar liever niet in een mainstream major release.

[ Voor 25% gewijzigd door Cyphax op 16-07-2008 09:43 ]

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • blaataaps
  • Registratie: Juli 2001
  • Niet online
MaximusTG schreef op dinsdag 15 juli 2008 @ 11:33:
Is het misschien een goed moment om over te gaan naar een "Het grote Ubuntu topic deel 8"
Ik zat ook al eens te kijken dat het inmiddels behoorlijk wat reacties zijn, en dat de topicstart al behoorlijk oud is, als iemand zich geroepen voelt een nieuwe te maken kan dat altijd natuurlijk, anders zal ik zelf als de tijd het toelaat even copy/pasten en wat informatie meer uptodate maken :)

Acties:
  • 0 Henk 'm!

  • Petervanakelyen
  • Registratie: December 2006
  • Laatst online: 30-04 12:52
blaataaps schreef op woensdag 16 juli 2008 @ 09:41:
[...]
Ik zat ook al eens te kijken dat het inmiddels behoorlijk wat reacties zijn, en dat de topicstart al behoorlijk oud is, als iemand zich geroepen voelt een nieuwe te maken kan dat altijd natuurlijk, anders zal ik zelf als de tijd het toelaat even copy/pasten en wat informatie meer uptodate maken :)
Prima !
Omdat het op dat moment dus nog niet klaar is. Ik weet niet hoe duidelijk ze het bij bijv. X.org maken wat er wel en niet werkt, maar het is gewoon nog niet klaar. En de vraag is of het in oktober wel klaar is. Ik twijfel daar intussen aan, want ook bij mij werken veel te veel zaken in nieuwere releases van Ubuntu niet, die het in de vorige gewoon prima deden.
Ja, vind ik ook !
Elke keer als ik een Hardy install doe, moet ik voor zowel miin desktop als laptops de xorg.conf vervangen door dat van een Gutsy Live CD !
Iemand anders ook dat probleem ?

OK, dat wat oudere grafische kaarten weg worden gesmeten, tot daar aan toe, maar ook bij de nieuwere is er bij de installatie van Hardy geen moeite gedaan om de grafische kaart te configureren !
Je kan zelfs in je xorg.conf geen lijntje met "driver" vinden ofzo 8)7

En dat noemen ze vooruitgang 7(8)7

Somewhere in Texas there's a village missing its idiot.


Acties:
  • 0 Henk 'm!

  • Dirk
  • Registratie: November 2004
  • Laatst online: 14:32

Dirk

Coördinator frontpagemoderatie
Petervanakelyen schreef op woensdag 16 juli 2008 @ 10:26:
Ja, vind ik ook !
Elke keer als ik een Hardy install doe, moet ik voor zowel miin desktop als laptops de xorg.conf vervangen door dat van een Gutsy Live CD !
Iemand anders ook dat probleem ?

OK, dat wat oudere grafische kaarten weg worden gesmeten, tot daar aan toe, maar ook bij de nieuwere is er bij de installatie van Hardy geen moeite gedaan om de grafische kaart te configureren !
Je kan zelfs in je xorg.conf geen lijntje met "driver" vinden ofzo 8)7

En dat noemen ze vooruitgang 7(8)7
Daar heb ik inderdaad ook last van gehad, al was er wel iets ingesteld. Dat was alleen totaal fout. Had mijn loginscherm plotseling een grootte van 1200x1600 px op een scherm van 1024x1280, waarmee dus de knoppen in de linker onderhoek verdwenen waren :P En aangezien mijn desktop het wel normaal deed had ik ook niet direct door waar het aan lag 8)7 Al was er wel een simpeler oplossing beschikbaar dat het van een gutsy cd halen van een xorg.conf: de oude (custom) xorg.conf was gebackupt als xorg.4.conf (ofzoiets) met de datum van de upgrade. Hernoemen en klaar.

Nou zit ik nog steeds met een ander probleem: de standaard kernel van hardy is te oud en ondersteund mijn hardware niet, terwijl als ik zelf een kernel compileer van de 2.6.25 of 2.6.26 branch dri niet wil werken, hij mijn wireless drivers niet automatisch wil laden (handmatig modproben gaat probleemloos) en meer gezeur. Maar goed, ik ga vanavond maar eens de kernel van intrepid maar eens proberen, kijken wat die doet, dat is wel een 2.6.26 kernel.

All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.


Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Dat je GDM (loginscherm) een andere resolutie heeft is inderdaad een wel vaker voorkomend probleem. Toendertijd heb ik dat opgelost door mn xorg.conf handmatig te editen en alle andere resoluties eruit te slopen. Matig dat er nog steeds geen goede tool is om je beeldscherm in te stellen (kijk eens hoe makkelijk dat in WinXP kan!)

Vicariously I live while the whole world dies


Acties:
  • 0 Henk 'm!

  • Neo
  • Registratie: Juli 2003
  • Laatst online: 19:46

Neo

Vicarious schreef op woensdag 16 juli 2008 @ 08:44:
[...]


Ik begrijp ook niet zo goed waarom er PER SE elk half jaar een nieuwe release moet worden uitgebracht. Vaak maken die nieuwe releases meer kapot dan ze fixen. Bij een upgrade van 7.10 naar 8.04 heb ik dat halve ding naar de kloten geholpen en ben ik ruim een halve dag bezig geweest om alles te fixen (mijn hdb1 mountte niet meer automatisch, xserver opnieuw configureren (waarom is daar nog steeds geen fatsoenlijke tool voor? Ik kan verdomme alleen mn resolution aanpassen, de juiste zit er dan niet tussen en dan kan ik weer met dpkg-reconfigure mn x server handmatig lopen verneuken), samba client die niet meer werkte etc. etc.)

Als ze nou gewoon een nieuwe release doen zodra daar aanleiding voor is en zodra alles goed getest is leidt dit volgens mij tot een veel hogere tevredenheid onder de gebruikers. Niemand zit te wachten om zn hele computer weer overhoop te halen na een nieuwe release.
Dat ben ik helemaal met je eens. Hoewel ik me altijd verheug op een nieuwe release, zou ik toch liever een stabiele release hebben per jaar dan twee per jaar die ik niet aan kennissen durf te adviseren omdat het soms wel en soms niet goed gaat.

Ubuntu heeft gewoon de insteek genomen om van een goede basis (debian) een platform te bouwen met snellere releasetijden omdat veel meer mensen tegenstaat aan Debian, maar IMHO draven ze daar toch te veel in door met hun huidige releaseschema. Er moet gewoon meer tijd zijn om te testen, neem gewoon drie kwart jaar voor development en dan nog een kwart jaar voor testen. Early adopters kunnen dan altijd de alpha/beta's gebruiken.

Dit probleem heb ik trouwens ook met updates. Net na de release kreeg ik wat updates binnen waardoor X niet meer starte. Van de week had ik het nog dat na updates mijn geluid niet meer werkte

Acties:
  • 0 Henk 'm!

  • Quincy5
  • Registratie: November 2006
  • Laatst online: 19-09 14:40
Mijn loginscherm heeft ook een andere resolutie idd. Aangezien ik een beginner ben en al genoeg problemen heb gehad om de boel goed ingesteld te krijgen, heb ik het maar laten zitten uit angst nog meer te verknoeien (en rigoureuze oplossingen als een volledige xorg.conf vervangen begin ik dus ook niet aan). Nu ik weet dat ik in xorg.conf moet zijn en naar de term GDM moet zoeken, kan ik dat handmatig editen ook wel eens proberen. Verder sluit ik me volledig aan bij de laatste zin van Vicarious.

PV Output


Acties:
  • 0 Henk 'm!

  • deadinspace
  • Registratie: Juni 2001
  • Laatst online: 15:39

deadinspace

The what goes where now?

Cyphax schreef op dinsdag 15 juli 2008 @ 15:04:
Het beste voorbeeld is wellicht het meest populaire idee: "Fix Suspend and Hibernate". Men heeft daar aangegeven dat het wel ERG lastig wordt om het goed werkend te krijgen omdat sommige drivers gesloten zijn. Tegelijkertijd breken nieuwe kernelreleases de boel ook nog weleens omdat ze weigeren een stabiele API te leveren.

Ik maak me een beetje zorgen om het feit dat ze bij Canonical daar weinig invloed op kunnen uitoefenen. Nu is dat laatste logisch en maar goed ook, onafhankelijkheid van elk team vind ik ook belangrijk [...]
Ik krijg de indruk dat je met "invloed uit kunnen oefenen" doelt op dingen als Linux, Xorg en Gnome, maar amitk (Ubuntu developer) schreef in die brainstorm specifiek dat ze geen invloed uit kunnen oefenen op proprietary drivers:
With binary drivers (mainly ATI and Nvidia), we do not have _any_ control over making these drivers behave - so users are left to choose between better 3D support or hibernate.
Intussen wil Canonical elk halfjaar een nieuwe versie pushen maar dit probleem begint onderhand toch zorgwekkend te worden, althans, zo zie ik het. [...] Maarja, intussen krijgt Canonical steeds meer te verduren mbt dit soort problemen waar zij zelf niet zo heel veel aan kunnen doen.
Ik heb steeds meer de indruk dat de problemen (en dan met name de regressies) met Ubuntu niet zozeer te maken hebben met slechte coordinatie en samenwerking tussen verschillende componenten, maar des te meer met het afgedwongen halfjaarlijks releasen.

Ik heb de indruk dat (hier op GoT in ieder geval) dit soort problemen bij Ubuntu een stuk hoger ligt dan de meeste andere distributies. Ja, Ubuntu is hip en nieuw, en daardoor is het vaak ook slecht getest volgensmij. Compiz/AIGLX is een prima voorbeeld. Een shiny new feature, die op veel plaatsen voor problemen zorgt. PulseAudio, nog zo een.

Met Debian Stable heb ik dat soort problemen (en dan vooral regressies) maar zelden. Maar daar zit dan ook gemiddeld anderhalf jaar tussen releases.

"Constant het nieuwste van het nieuwste" en "alles moet werken, geen regressies" zijn nou eenmaal met elkaar in strijd. En dat merk je hier.
Neo schreef op woensdag 16 juli 2008 @ 00:05:
Dat wordt inderdaad een steeds groter probleem en aan de oproep van Shuttleworth is geen gehoor gegeven (of in ieder geval niet genoeg).
Volgensmij is het probleem helemaal niet groter geworden, maar is het probleem in Ubuntu groter vanwege de korte Ubuntu release cycle.
Of iedereen moet zich gaan aanpassen aan het halfjaarrelease schema van Ubuntu of andersom.
Mja, ik zie - behalve voor Canonicals agenda - het voordeel niet van het scenario waarin iedereen zich aanpast aan Ubuntu's release cycle. Los nog van de complete onhaalbaarheid.
Elk half jaar een stabiele release uitbrengen gaat gewoon niet.
Inderdaad.
Jungian schreef op woensdag 16 juli 2008 @ 01:30:
Ik vraag me soms echt af of Linus en de andere kernel-devs uberhaupt wel eens diep hebben nagedacht over de subsystemen die ze inelkaar gezet hebben. Ze zijn namelijk blijkbaar constant ontevreden met hetgeen ze in elkaar gezet hebben.
Doe het maar eens beter dan.

Hardware evolueert. Wat de software met hardware doet evolueert ook. De wensen aan het tussenliggende systeem (de kernel dus) veranderen dus met de tijd, en het is vrijwel onmogelijk om dat fatsoenlijk te voorspellen.

Bijvoorbeeld uit deze tekst (sowieso aardig leesvoer over waarom proprietary drivers een slecht idee zijn):
As an example, both Windows and Linux needed to rewrite their internal USB implementations multiple times in order to take advantage of all of the capabilities of different devices. Linux was able to upgrade the interfaces and the drivers utilizing them simultaneously, and then to deprecate and remove the old interfaces.By contrast, Windows must continue to support the obsolete interfaces indefinitely, which has repeatedly caused development headaches and can lead to bugs and security holes.
Dus Linux is niet de enige kernel waarin zulke dingen regelmatig verbeterd (moeten) worden! Het verschil is dat we vanwege het development model de oude interfaces niet eeuwig mee hoeven te slepen, wat development een hoop makkelijker maakt.
[...] "gestalkt" worden door RMS en zijn gestoorde leger van kelderbewoners.
Lekker constructieve kritiek :/
Wie wil er immers dat er werkende software en drivers zijn?
Iedereen. Alleen lijken de proprietary drivers nou niet echt onder "werkend" te vallen, in de big-picture zin van het woord.
Het is veel belangrijker om alles open source te hebben, zodat we de 1% van de mensen die iets aan die source-code heeft tevreden kunnen stellen.
Flikker alsjeblieft op met je neerbuigende houding. GNU/Linux bestaat en is zover gekomen als het is omdat we de source hebben en kunnen aanpassen. Ik ben al vaak genoeg in de source van programma's gedoken om mezelf en anderen te helpen (bijvoorbeeld hier op GoT). Dat had ik niet gekund als ik de source niet had. Ik heb ook verschillende keren software aangepast en patches upstream gestuurd, waaronder de driver van mijn TV-kaart. Als dat een proprietary driver was geweest, dan had ik dat niet gekund.

Die "1% van de mensen die iets aan de source-code heeft" is wel de 1% die er wat nuttigs mee doet.
Het grote probleem met GNU/Linux is (zoals je aangeeft) dat het een moving target is, op ALLE vlakken. Als het al niet de kernel is, dan zijn het wel grote wijzigingen in één van de populaire DE’s of komt er bijvoorbeeld een geluidsdaemon bij (daarover kan ik al een heel boek schrijven).
Natuurlijk is het een moving target; er worden continue dingen verbeterd. Het is aan Canonical om te kiezen welke kernel, welke Xorg, welke Gnome, en welke weetikwat ze in hun release stoppen, en hoe lang ze uittrekken om het te testen en polijsten.

PA is daar een prima voorbeeld van, het is een project dat in ontwikkeling is en dat hoogstwaarschijnlijk een aardige verbetering op geluidgebied betekent. Maar Canonical is degene die kiest om het nu al in Ubuntu te stoppen. Dat betekent niet dat de ontwikkeling van PA een probleem is.
Bedrijven en developers hebben een stabiel platform op alle fronten nodig. Ze willen geen GTK+ en QT-frontend schrijven
Dat hoeft ook niet.
ze willen geen rekening houden met meerdere geluidsdaemons
Dat hoeft ook niet.
ze willen geen rekening houden met elke nieuwe/oude X-versie met elk z’n eigen quirks
Dat hoeft ook niet.

Als een bedrijf een desktop app wil schrijven (want daar lijk je het over te hebben), dan kiezen ze om dat voor Gnome of KDE te doen, en daarmee is de kous af. De rest wordt allemaal geabstraheerd door de DE libs. Die Gnome of KDE app draait ook onder de andere desktop (wel helaas met een wat afwijkende look&feel), dus twee versies schrijven is ook niet nodig.
Gebruikers willen geen onzin met hun videokaart-drivers elke update (doen alsof de Intel-driver heilig is = oogkleppen-modus) omdat er weer eens iets @ kernel/X-niveau gewijzigd is
Dat willen ze inderdaad niet, en de reden dat ze dat niet kunnen is vaker wel dan niet de proprietary drivers.
Mijn grootste aanbeveling : jaag closed-source driver/software niet tegen je in het harnas (X vs NVIDIA is hot nu), maar probeer juist samen te werken met deze bedrijven om een zo goed mogelijk product af te leveren.
Mijn grootste aanbeveling: Laat hardware fabrikanten alsjeblieft weten dat proprietary drivers onacceptabel zijn. Probeer liever met ze samen te werken om hun hardware ondersteund te krijgen door free, in-tree drivers. Lees ook dit eens.
Petervanakelyen schreef op woensdag 16 juli 2008 @ 10:26:
[...] maar ook bij de nieuwere is er bij de installatie van Hardy geen moeite gedaan om de grafische kaart te configureren !
Je kan zelfs in je xorg.conf geen lijntje met "driver" vinden ofzo 8)7
Dat is niet "8)7", dat is normaal. Xorg probed veel meer automatisch tegenwoordig, en de door Xorg ontwikkelaars aangeraden configuratie is zo kaal mogelijk, zodat Xorg zoveel mogelijk automatisch zal regelen.

Alleen, dat is nog niet zo gek lang zo, dus Xorg doet nog niet alles wat het automatisch doet goed. En dat leidt me tot het volgende punt:
En dat noemen ze vooruitgang 7(8)7
Ja, het is een vooruitgang. Maar misschien eentje die te vroeg in productie is gebruikt. Zie de rest van mijn Ubuntu opmerkingen hoger in deze post. ;)
Vicarious schreef op woensdag 16 juli 2008 @ 13:21:
Matig dat er nog steeds geen goede tool is om je beeldscherm in te stellen (kijk eens hoe makkelijk dat in WinXP kan!)
Dat is in Gnome niet moeilijker, gewoon hardstikke makkelijk met System > Preferences > Screen resolution (oid). Als de resolutie die je wil daar niet bij staat, dan is dat een probleem in het achterliggende systeem (Xorg en diens configuratie, zie ook ietsjes hoger in deze post), en dan ben je bij Xorg+Gnome even genaaid als bij Windows XP. Want wat zou jij doen als de gewenste resolutie er in Windows' scherminstellingen niet bij staat?

Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Als in WinXP de juiste resolutie er niet bij staat ga ik kijken of ik een andere driver kan proberen. In die screen resolution tool kan ik niet eens een driver kiezen! Een ander tooltje wat ik ooit eens tegenkwam (gnome-display-config ofzo?) kon eigenlijk precies wat ik wilde en werkte heel makkelijk, maar dat is er dus helemaal uitgesloopt. Ik vraag me dan af waarom...

Vicariously I live while the whole world dies


Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
deadinspace schreef op woensdag 16 juli 2008 @ 15:41:
Mijn grootste aanbeveling: Laat hardware fabrikanten alsjeblieft weten dat proprietary drivers onacceptabel zijn. Probeer liever met ze samen te werken om hun hardware ondersteund te krijgen door free, in-tree drivers. Lees ook dit eens.
Het is natuurlijk heel nobel om te denken dat alles maar openbaar moet worden gemaakt maar je kunt toch niet verwachten dat Nvidia haar complete bedrijfsgeheimen op tafel gooit om -hoe hard het ook voor je mag klinken- 1% van de desktopmarkt op haar wenken te bedienen. Ik denk zelf dat Nvidia juist heel veel heeft gedaan hardware incl. drivers werkend te krijgen. Kijk eens naar Xorg troep waarbij Nvidia het altijd voor elkaar krijgt om 3d enigzins fatsoenlijk te krijgen. Heb je al naar ATi en Intel gekeken waarbij specificaties en documentatie over bepaalde hardware is vrijgegeven en zo goed als waardeloze (3d) drivers door de community zijn afgeleverd?

Leuk leesvoer over graphic drivers: http://linuxhaters.blogsp...-shit-on-open-source.html
En natuurlijk de blog in zijn geheel, ondanks het hoge rant gehalte staan er zeer herkenbare punten in.

Acties:
  • 0 Henk 'm!

  • jelly
  • Registratie: Mei 2006
  • Laatst online: 18-09 09:19

jelly

Arch Linux

Het is toch vreemd dat ze als deze hafljaarlijkse release zo rampzalig zijn er toch mee doorgaan, ubuntu is toch deels bedoeld voor de zakelijke markt omdat ze aan support natuurlijk willen verdienen en als een LTS dan niet stabiel is :| . Ik snap ook niet waarom ze niet een heel klein beetje af kijken van debian en zo hun release organiseren dus een stabiele versie en testing.

Keep it simple stupid


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
deadinspace schreef op woensdag 16 juli 2008 @ 15:41:
Ik krijg de indruk dat je met "invloed uit kunnen oefenen" doelt op dingen als Linux, Xorg en Gnome, maar amitk (Ubuntu developer) schreef in die brainstorm specifiek dat ze geen invloed uit kunnen oefenen op proprietary drivers:
Je kunt van Canonical ook zeker niet verwachten dat ze direct invloed uitoefenen op een Ati of Nvidia. Ze kunnen wel hun best doen de samenwerking zo soepel mogelijk te laten verlopen. Volgens mij doen ze ook hun best trouwens, maar het ligt niet alleen aan samenwerking tussen Canonical en een andere partij: er zijn zo veel partijen nu waar je afhankelijk van bent (dus idd Xorg en Linux, en Gnome) dat er vanzelf iets mis gaat.
Ik heb steeds meer de indruk dat de problemen (en dan met name de regressies) met Ubuntu niet zozeer te maken hebben met slechte coordinatie en samenwerking tussen verschillende componenten, maar des te meer met het afgedwongen halfjaarlijks releasen.
Hmmm zou kunnen, met een wat conservatievere houding van Canonical zouden ze nog steeds elk halfjaar kunnen releasen, alleen krijg je dan releases die steeds op elkaar lijken. Dat je zeg maar voor Ubuntu 8.10 als enige vernieuwingen hebt tov 8.04 dat het geluid het nu beter doet (PulseAudio dat volwassener wordt) en dual monitor support verbeterd is. En ja, daar wek je ook weinig indruk mee. En dat is best lastig voor Canonical lijkt me.
Ik heb de indruk dat (hier op GoT in ieder geval) dit soort problemen bij Ubuntu een stuk hoger ligt dan de meeste andere distributies. Ja, Ubuntu is hip en nieuw, en daardoor is het vaak ook slecht getest volgensmij. Compiz/AIGLX is een prima voorbeeld. Een shiny new feature, die op veel plaatsen voor problemen zorgt. PulseAudio, nog zo een.
Inderdaad, maar dat komt omdat het onderdelen zijn die gewoon inderdaad niet volledig getest zijn. Het komt er volgens mij alleen maar bij juist, bovenop het bovengenoemde probleem van niet-samenwerkende teams.
Met Debian Stable heb ik dat soort problemen (en dan vooral regressies) maar zelden. Maar daar zit dan ook gemiddeld anderhalf jaar tussen releases.
Klopt, maar ik kan me voorstellen dat Canonical dat liever niet doet. Ik vrees zelf eigenlijk dat ze op gegeven moment wel moeten. Ze kunnen niet enorm groot worden en toch weg blijven komen met dit soort problemen.
"Constant het nieuwste van het nieuwste" en "alles moet werken, geen regressies" zijn nou eenmaal met elkaar in strijd. En dat merk je hier.
M
ja, ik zie - behalve voor Canonicals agenda - het voordeel niet van het scenario waarin iedereen zich aanpast aan Ubuntu's release cycle. Los nog van de complete onhaalbaarheid.
Mwah, het lijkt mij sowieso wel handig om eerlijk te zijn. En zo onhaalbaar hoeft het niet te zijn, als de teams het maar ook een goed idee vinden. Ik heb geen idee of anderen hier zin in hebben.
Hardware evolueert. Wat de software met hardware doet evolueert ook. De wensen aan het tussenliggende systeem (de kernel dus) veranderen dus met de tijd, en het is vrijwel onmogelijk om dat fatsoenlijk te voorspellen.
Een kernelAPI hoeft ook helemaal niet voorgoed vastgezet te worden, maar ze zouden het best makkelijker kunnen maken voor driverontwikkelaars door voor 2.6 de api vast te stellen. Moet het over een jaar wijzigen? Fine, nieuwe branch 2.7 zodat alle 2.6 kernels gewoon blijven werken, ook bugfixreleases die dan toch volgen. Nu is het elke keer weer spannend en dat is gewoon onhandig. Het komt ook erg eigenwijs over zo. En zo'n oude 2.6 is op gegeven moment ook uitontwikkeld en klaar, uiteraard moet er een moment komen dat er veranderingen moeten worden doorgevoerd, maar ik vind dat ze daar dus wat anders mee om zouden moeten springen. Support van bedrijven als Ati en Nvidia is gewoon vitaal als je in de mainstream markt mee wil doen.
Dus Linux is niet de enige kernel waarin zulke dingen regelmatig verbeterd (moeten) worden! Het verschil is dat we vanwege het development model de oude interfaces niet eeuwig mee hoeven te slepen, wat development een hoop makkelijker maakt.
Development voor de kerneldevelopers ja. Da's leuk maar als dat de enige groep is die er voordeel van heeft en de rest klaagt erover, tja.
GNU/Linux bestaat en is zover gekomen als het is omdat we de source hebben en kunnen aanpassen.
Dat zal deels wel kloppen, maar laten we vooral niet doen alsof een distro als Debian of Slackware in hun huidige vorm enig relevant marktaandeel zouden veroveren. Geheel toevallig lukt dat met een bedrijf als Canonical (in al zijn commercieelheid) een stuk beter, dat heeft echt wel een reden.
Mijn grootste aanbeveling: Laat hardware fabrikanten alsjeblieft weten dat proprietary drivers onacceptabel zijn. Probeer liever met ze samen te werken om hun hardware ondersteund te krijgen door free, in-tree drivers. Lees ook dit eens.
Met als gevolg een driver die de grafische kaart kan aansturen, maar vanwege de bedrijfsgeheimen niet 3d kan, of niet alle features ondersteunt. Wat zeg je dan tegen een Nvidia? "niet goed genoeg, maak maar wat beters"? Dan krijg je van Nvidia een middelvinger terug, want zolang iedereen nog Windows gebruikt hebben ze er schijt aan.
Dat is in Gnome niet moeilijker, gewoon hardstikke makkelijk met System > Preferences > Screen resolution (oid). Als de resolutie die je wil daar niet bij staat, dan is dat een probleem in het achterliggende systeem (Xorg en diens configuratie, zie ook ietsjes hoger in deze post), en dan ben je bij Xorg+Gnome even genaaid als bij Windows XP. Want wat zou jij doen als de gewenste resolutie er in Windows' scherminstellingen niet bij staat?
Je beeldscherm instellen is wel wat meer dan alleen de resolutie anders. Ik kan aan mijn laptop nog steeds niet fatsoenlijk een extern scherm hangen en gebruiken, en dat is met de open source radeon drivers (die verder waanzinnig goed werken trouwens). Dat ligt zeker niet aan gnome, het zal waarschijnlijk xrandr zijn, maar daar ben ik nog steeds niet mee geholpen.
jelly schreef op woensdag 16 juli 2008 @ 16:26:
Het is toch vreemd dat ze als deze hafljaarlijkse release zo rampzalig zijn er toch mee doorgaan, ubuntu is toch deels bedoeld voor de zakelijke markt omdat ze aan support natuurlijk willen verdienen en als een LTS dan niet stabiel is :| . Ik snap ook niet waarom ze niet een heel klein beetje af kijken van debian en zo hun release organiseren dus een stabiele versie en testing.
Zo rampzalig zijn die halfjaarlijkse releases niet, er zijn gewoon een paar problemen met software, veroorzaakt omdat de software niet volwassen is. Dat is mooi, want die software wordt wel volwassen, dus wat nu niet werkt zal waarschijnlijk in de volgende release beter gaan, zolang ze tenminste niet weer zo'n onderdeel voor iets anders vervangen dat er alleen maar veelbelovend uitziet. Ik ben met je eens dat ze stabiele en testingversies uit zouden kunnen brengen maar dat is wat ze ook een beetje doen met de normale releases en de LTS-releases. Dat men inderdaad voor een LTS software kiest die nog niet helemaal klaar is is daarmee dus wel een domme keuze imo (muv Firefox).

[ Voor 8% gewijzigd door Cyphax op 16-07-2008 16:39 ]

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • sub0kelvin
  • Registratie: September 2002
  • Laatst online: 10-08-2023
Zoals een paar pagina's geleden ook al is uitgelegd: de LTS is niet extra stabiel, maar wordt gewoon langer ondersteund. Dat betekend dat je langer dezelfde release kunt blijven gebruiken zonder te hoeven upgraden. Dat is dus ideaal voor zakelijk gebruik. Ook heb je zo langer de tijd om de overstap naar de nieuwe (LTS) release te maken, want voor dat je de nieuwe hebt uitgerold, is er nog lang geen nieuwe LTS.

Ubuntu's zesmaandelijkse cyclus impliceert trouwens niet dat je elke release direct moet installeren. Als je tevreden bent is er geen noodzaak tot upgraden, aangezien een upgrade altijd risico's met zich meebrengt.

Maar zoals ik al zei, kijk een paar pagina's terug, want deze discussie is net een paar weken geleden ook al gevoerd.

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
sub0kelvin schreef op woensdag 16 juli 2008 @ 16:42:
Zoals een paar pagina's geleden ook al is uitgelegd: de LTS is niet extra stabiel, maar wordt gewoon langer ondersteund. Dat betekend dat je langer dezelfde release kunt blijven gebruiken zonder te hoeven upgraden. Dat is dus ideaal voor zakelijk gebruik. Ook heb je zo langer de tijd om de overstap naar de nieuwe (LTS) release te maken, want voor dat je de nieuwe hebt uitgerold, is er nog lang geen nieuwe LTS.
Als ze bij Canonical slim zijn zorgen ze er wel voor dat de LTS extra stabiel is. Dat support wat makkelijker.
Ubuntu's zesmaandelijkse cyclus impliceert trouwens niet dat je elke release direct moet installeren. Als je tevreden bent is er geen noodzaak tot upgraden, aangezien een upgrade altijd risico's met zich meebrengt.
Dat is toch geen oplossing voor je problemen als in elke release zo'n beetje iets niet meer werkt? Natuurlijk hoef je geen nieuwe releases te installeren, maar om daar nou maar regressies mee goed te praten... da's echt te goedkoop.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
sub0kelvin schreef op woensdag 16 juli 2008 @ 16:42:
Zoals een paar pagina's geleden ook al is uitgelegd: de LTS is niet extra stabiel, maar wordt gewoon langer ondersteund. Dat betekend dat je langer dezelfde release kunt blijven gebruiken zonder te hoeven upgraden. Dat is dus ideaal voor zakelijk gebruik. Ook heb je zo langer de tijd om de overstap naar de nieuwe (LTS) release te maken, want voor dat je de nieuwe hebt uitgerold, is er nog lang geen nieuwe LTS.

Ubuntu's zesmaandelijkse cyclus impliceert trouwens niet dat je elke release direct moet installeren. Als je tevreden bent is er geen noodzaak tot upgraden, aangezien een upgrade altijd risico's met zich meebrengt.

Maar zoals ik al zei, kijk een paar pagina's terug, want deze discussie is net een paar weken geleden ook al gevoerd.
Het is helemaal niet ideaal voor zakelijk gebruik, want dan zit je niet te wachten op niet stabiele software.

Acties:
  • 0 Henk 'm!

  • writser
  • Registratie: Mei 2000
  • Laatst online: 19-09 20:58
Miki schreef op woensdag 16 juli 2008 @ 17:36:
[...]

Het is helemaal niet ideaal voor zakelijk gebruik, want dan zit je niet te wachten op niet stabiele software.
huh? Dan heb je liever een beta-release die om de haverklap vastloopt? 8)7

Onvoorstelbaar!


Acties:
  • 0 Henk 'm!

  • Jungian
  • Registratie: Juni 2006
  • Niet online

Jungian

>_<

-> Om het topic niet verder te vuilen mogen er gewoon DMs gestuurd worden. <-

Cyphax schreef op woensdag 16 juli 2008 @ 16:36:
Met als gevolg een driver die de grafische kaart kan aansturen, maar vanwege de bedrijfsgeheimen niet 3d kan, of niet alle features ondersteunt. Wat zeg je dan tegen een Nvidia? "niet goed genoeg, maak maar wat beters"? Dan krijg je van Nvidia een middelvinger terug, want zolang iedereen nog Windows gebruikt hebben ze er schijt aan.
Hier stond echt een godsallemachtig gigantisch verhaal, maar een command-Q later was alles weg :+ Een condensed versie dan maar. :') Voordat er met whatifs gewezen wordt richting NVIDIA, die met de NVIDIA-driver een prima driver neerzet (niet perfect, wel beter dan de rest): de Intel-driver en de 28318531 verschillende Ati open source drivers hebben constant te maken met regressies, presteren slechter dan closed source drivers (vooral de ati-driver (reverse engineered)) en missen functionaliteit. Twee dingen die ik redelijk recent nog langs heb zien komen op een Ubuntu-systeem : Compiz, xv + Intel = mooie blauwe filmpjes (heeft maanden geduurd voordat iemand het gepatched heeft) en kernelgezeik (wie dit heeft aangericht is niet interessant), waardoor je met een GMA DRI op je buik kon schrijven.

Ik geloof overigens best dat de open source Ati-drivers (ideetje : maak er maar één) nog hun tijd nodig hebben, maar daar heb je als consument geen reet aan. Je wilt _nu_ een driver hebben met goede 3D-performance + de belangrijkste features en niet over één/twee jaar. NVIDIA levert dit al jaren, ATI is inmiddels ook erg goed op weg. Het interesseert echt vrijwel niemand dat je soms maanden moet wachten op kansloze feature x.

Minder veranderingen aan de kernel- en Xorg-ABI leidt automatisch tot minder problemen. Zit dit vernieuwing in de weg ? Ongetwijfeld, maar als dat betekent dat er bijvoorbeeld maar eens in de één a twee jaar een nieuwe Xorg-versie uitkomt waar iedereen wat aanheeft, waarover goed gecommuniceerd wordt en waarop alle drivers werken (_zonder_ input van de community) waarom niet ?
Je beeldscherm instellen is wel wat meer dan alleen de resolutie anders. Ik kan aan mijn laptop nog steeds niet fatsoenlijk een extern scherm hangen en gebruiken, en dat is met de open source radeon drivers (die verder waanzinnig goed werken trouwens). Dat ligt zeker niet aan gnome, het zal waarschijnlijk xrandr zijn, maar daar ben ik nog steeds niet mee geholpen.
Monitor hotplugging. :D Ik heb laatst nog met een volle zaal mogen aanschouwen hoe iemand 10 minuten lang zat te kutten met zijn laptop (Ubuntu, Intel GMA) en het uiteindelijk maar gewoon opgaf en een Windows-laptop van iemand leende. Met xrandr (=geen hotplugging) had ik geen problemen thuis, maar hij had daar natuurlijk weinig aan. :+

Al dit lame gezeik van mijn kant daar gelaten kunnen we onze energie beter stoppen in de echt belangrijke bugs. 8) Hij gaat door voor de "bug van het jaar" award imho.



Helemaal deadinspace vergeten }:|
deadinspace schreef op woensdag 16 juli 2008 @ 15:41:
Doe het maar eens beter dan.

Hardware evolueert. Wat de software met hardware doet evolueert ook. De wensen aan het tussenliggende systeem (de kernel dus) veranderen dus met de tijd, en het is vrijwel onmogelijk om dat fatsoenlijk te voorspellen.
Ik vraag me af wat voor orakel de Windows- en OSX-(kernel)devs dan wel niet gebruiken. Die krijgen het blijkbaar wel voorelkaar iets inelkaar te zetten waar ze gedurende lange tijd tevreden mee kunnen zijn. Ze houden zelfs tijd over om compatibility layers inelkaar te schroeven.
Bijvoorbeeld uit deze tekst (sowieso aardig leesvoer over waarom proprietary drivers een slecht idee zijn)
Leuk stukje tekst, maar teksten als “the goal is to provide the “Just Works” experience” en “that support continues through all future versions” neem ik met een flink korreltje zout.
Dus Linux is niet de enige kernel waarin zulke dingen regelmatig verbeterd (moeten) worden! Het verschil is dat we vanwege het development model de oude interfaces niet eeuwig mee hoeven te slepen, wat development een hoop makkelijker maakt.
Er zit een verschil tussen een half jaar tot een jaar een compatibility-layer onderhouden (wat @ Linux nu al niet eens gebeurd), zodat iedereen de tijd heeft om zijn code aan te passen en 10 jaar (a la Windows).
Lekker constructieve kritiek :/
Dat denk ik ook altijd als RMS aan het woord is. Dat slappe geouwehoer bij het vertrek van Bill Gates zijn van die momenten waarvoor hij leeft.
Iedereen. Alleen lijken de proprietary drivers nou niet echt onder "werkend" te vallen, in de big-picture zin van het woord.
“In de big-picture zin van het woord” zijn proprietary drivers of de enige oplossing (geen specs) of de betere oplossing (zie NVIDIA), dus ik weet niet waar je op doelt ?
Flikker alsjeblieft op met je neerbuigende houding.
Graag, maar ik ga pas volgende week op vakantie. :)
Natuurlijk is het een moving target; er worden continue dingen verbeterd. Het is aan Canonical om te kiezen welke kernel, welke Xorg, welke Gnome, en welke weetikwat ze in hun release stoppen, en hoe lang ze uittrekken om het te testen en polijsten.
Zo natuurlijk vind ik dat helemaal niet. Je gaat me niet wijsmaken dat al die FOSS-devs met AL hun werk na AL die jaren nog steeds niet kunnen gaan stabiliseren en standaardiseren op zoveel mogelijk vlakken. GTK of QT wegsnijden zou al een hoop dubbel werk en testen schelen.
PA is daar een prima voorbeeld van, het is een project dat in ontwikkeling is en dat hoogstwaarschijnlijk een aardige verbetering op geluidgebied betekent. Maar Canonical is degene die kiest om het nu al in Ubuntu te stoppen. Dat betekent niet dat de ontwikkeling van PA een probleem is.
De ontwikkeling van PA zit het helemaal snor mee.
Dat hoeft ook niet.
Jij gaat er voor het gemak vanuit dat op elke corporate desktop twee toolkits staan ? Je mag al blij zijn als je een calculator krijgt.
Dat hoeft ook niet.
Als je geen bepaalde geluidsdaemon target kun je zomaar geen geluid hebben. Je mag er zelfs al niet vanuit gaan dat iets simpels als ALSA werkt (zie de PA-fuckup van Ubuntu).
Dat hoeft ook niet.

Als een bedrijf een desktop app wil schrijven (want daar lijk je het over te hebben), dan kiezen ze om dat voor Gnome of KDE te doen, en daarmee is de kous af. De rest wordt allemaal geabstraheerd door de DE libs. Die Gnome of KDE app draait ook onder de andere desktop (wel helaas met een wat afwijkende look&feel), dus twee versies schrijven is ook niet nodig.
Ik had het niet persé over QT/GTK desktop-apps en ik doelde eigenlijk meer op tussenlagen als SDL. Desondanks : je hebt gelijk.
Dat willen ze inderdaad niet, en de reden dat ze dat niet kunnen is vaker wel dan niet de proprietary drivers.
Proprietary drivers zorgen er niet voor dat ABI’s veranderen en compatibilitylagen ontbreken.
Mijn grootste aanbeveling: Laat hardware fabrikanten alsjeblieft weten dat proprietary drivers onacceptabel zijn. Probeer liever met ze samen te werken om hun hardware ondersteund te krijgen door free, in-tree drivers. Lees ook dit eens.
Bedrijven die hun code absoluut niet willen vrijgeven zul je met constant gebombardeer echt niet het licht kunnen laten zien. Samenwerken is de enige oplossing, maar als je ze constant lastig wilt vallen : be my guest. Op een bepaald moment zeggen ze gewoon “fuck you” en richten ze zich gewoon weer alleen op de populaire platforms van dit moment.

Tot zover mijn educatieve reply van de dag, ik ga weer nuttigere zaken ondernemen dan gigantische lappen tekst schrijven. :+
Fuck yeah, jullie zijn weer van me af. *O*

[ Voor 43% gewijzigd door Jungian op 16-07-2008 21:31 ]

0.0


Acties:
  • 0 Henk 'm!

  • Eusebius
  • Registratie: November 2001
  • Niet online
Wel verdikkeme ... de updatemanager haalt automagisch de nieuwe kernel van Linux binnen (geen idee of ik de beta heb aanstaan) en ik moest mijn pc opnieuw opstarten.

Is mijn hele dual-screen setup naar zijn grootje! Grmmrbllbl :-( Geen idee hoe ik het moet fixen en hoe ik het de vorige keer heb gedaan ... wordt weer dit topic doorspitten naar mijn eigen reacties.

==
hoi


Acties:
  • 0 Henk 'm!

  • llevering
  • Registratie: September 2000
  • Laatst online: 19-09 08:53
Gewoon in Grub de oude kernel selecteren bij starten en wachten tot er een betere kernel is?

Acties:
  • 0 Henk 'm!

  • Eusebius
  • Registratie: November 2001
  • Niet online
llevering schreef op woensdag 16 juli 2008 @ 20:22:
Gewoon in Grub de oude kernel selecteren bij starten en wachten tot er een betere kernel is?
Ja, dat dacht ik ook ... maar nu blijkt op de één of andere manier mijn config file gereset te zijn :-( De backup is ook niet meer goed.

==
hoi


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
Jungian schreef op woensdag 16 juli 2008 @ 19:23:
Voordat er met whatifs gewezen wordt richting NVIDIA, die met de NVIDIA-driver een prima driver neerzet (niet perfect, wel beter dan de rest): de Intel-driver en de 28318531 verschillende Ati open source drivers hebben constant te maken met regressies, presteren slechter dan closed source drivers (vooral de ati-driver (reverse engineered)) en missen functionaliteit.
For good measure: ik bedoel niet zozeer Nvidia zelf maar de commercielen. Nvidia maakt hele nette drivers imo voor Linuxgebruikers. Ati/AMD gaat ook de goede kant op. En da's mooi EN belangrijk. Nu de regressies nog aanpakken, dat zou gewoon enorm schelen.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • deadinspace
  • Registratie: Juni 2001
  • Laatst online: 15:39

deadinspace

The what goes where now?

Vicarious schreef op woensdag 16 juli 2008 @ 15:57:
Als in WinXP de juiste resolutie er niet bij staat ga ik kijken of ik een andere driver kan proberen.
Ja, maar dan is er dus iets mis met het achterliggende systeem (waar de drivers deel van uitmaken), en daarmee rommelen hoort niet thuis in de voorkeursinstellingen van de gebruiker.

En dat is waar ik naar toe wilde met mijn opmerking: Als de backend gewoon automatisch detecteert welke video modes en refresh rates werken op de hardware, dan hoeft dat niet (in xorg.conf) ingesteld te worden. Ook niet om er een uit te laten kiezen door de gebruiker, want dat kan via een gebruikersvriendelijk dialoog in de Desktop.
In die screen resolution tool kan ik niet eens een driver kiezen!
Ja, het is dan ook een screen resolution tool ;)
Miki schreef op woensdag 16 juli 2008 @ 16:12:
Het is natuurlijk heel nobel om te denken dat alles maar openbaar moet worden gemaakt maar je kunt toch niet verwachten dat Nvidia haar complete bedrijfsgeheimen op tafel gooit om -hoe hard het ook voor je mag klinken- 1% van de desktopmarkt op haar wenken te bedienen.
Jij gaat me niet vertellen dat er zo'n boeiende bedrijfsgeheimen zitten in de hardware interface van hun videokaarten. Dat is - zeker met huidige GPUs - vergelijkbaar met de instructieset van een processor geheim houden omdat daar bedrijfsgeheimen in zouden zitten.
Heb je al naar ATi en Intel gekeken waarbij specificaties en documentatie over bepaalde hardware is vrijgegeven en zo goed als waardeloze (3d) drivers door de community zijn afgeleverd?
Ja, ik gebruik niet anders (nouja, op het moment gebruik ik nergens moderne Intel GPUs, dus het is vooral ATi).
Leuk leesvoer over graphic drivers: http://linuxhaters.blogsp...-shit-on-open-source.html
En natuurlijk de blog in zijn geheel, ondanks het hoge rant gehalte staan er zeer herkenbare punten in.
Er zitten zeker waarheden in, maar ik zie die eerder als reden om de free drivers en infrastructuur te verbeteren. Zo werd er een tijd geleden bijvoorbeeld aan gewerkt aan een unified memory manager. En als NVidia nou had samen gewerkt met de Xorg (*) developers, dan hadden we die unified memory manager misschien al lang gehad, met als bonusvoordeel voor NVidia dat ze die niet zelf hoeven te onderhouden waarmee ze zich werk besparen.

(*) Destijds XFree86, wat misschien ook wel verklaart waarom ze dat niet gedaan hebben; De development van XFree86 was relatief gesloten, en het was niet makkelijk om patches geaccepteerd te krijgen.
Cyphax schreef op woensdag 16 juli 2008 @ 16:36:
Inderdaad, maar dat komt omdat het onderdelen zijn die gewoon inderdaad niet volledig getest zijn.
Inderdaad, maar toch voegt Canonical ze toe.
Mwah, het lijkt mij sowieso wel handig om eerlijk te zijn. En zo onhaalbaar hoeft het niet te zijn, als de teams het maar ook een goed idee vinden. Ik heb geen idee of anderen hier zin in hebben.
Nouja, de haalbaarheid hangt natuurlijk af van de scope. Als het alleen om Linux, Xorg en Gnome gaat, dan is het misschien nog te doen. Maarja, dan wil je KDE ook natuurlijk voor de gelijktijdig te releasen Kubuntu. En openoffice. En Firefox. En the Gimp. En iedereens favoriete programmaatje voor dit en dat. En dat zie ik niet gebeuren. Ik denk ook dat het niet praktisch is.

Ik ben trouwens sowieso geen fan van deadline based releasen. Ik denk dat de kwaliteit van de software hoger komt te liggen door te releasen wanneer het klaar is, niet wanneer een willekeurige datum verstreken is.

Oh, en ik denk dat je Linus' medewerking in zo'n systeem wel kunt vergeten :P
Een kernelAPI hoeft ook helemaal niet voorgoed vastgezet te worden, maar ze zouden het best makkelijker kunnen maken voor driverontwikkelaars door voor 2.6 de api vast te stellen. Moet het over een jaar wijzigen? Fine, nieuwe branch 2.7
Ja, en een paar maanden later gooien ze het block device framework overhoop om de latency te verlagen voor flash disks. Weer een nieuwe branch? Daarna een wireless stack revamp om de verschillende aanpakken die al bestonden te verenigen. Nog maar een nieuwe branch? Dat werkt niet goed.
Development voor de kerneldevelopers ja. Da's leuk maar als dat de enige groep is die er voordeel van heeft en de rest klaagt erover, tja.
Ja, en kerneldevelopers zijn degenen die de kernel (inclusief drivers) ontwikkelen en onderhouden, en dat die taak voor hen te doen is lijkt me vrij belangrijk.
Dat zal deels wel kloppen, maar laten we vooral niet doen alsof een distro als Debian of Slackware in hun huidige vorm enig relevant marktaandeel zouden veroveren. Geheel toevallig lukt dat met een bedrijf als Canonical (in al zijn commercieelheid) een stuk beter, dat heeft echt wel een reden.
Ja, maar dat heeft niks te maken met proprietary drivers. Het installeren van die dingen is op Ubuntu niet dramatisch anders dan op de meeste andere distributies.

Het heeft het meeste te maken met hun marketing en uitstraling (die "Ubuntu is hip!" aura is goud waard), en met hun actieve pogingen Ubuntu aan de man te brengen (via Dell etc). Projecten als Debian en Slackware nemen een veel passievere houding aan; ze maken een (naar hun mening) zo goed mogelijk OS, en mensen mogen zelf langskomen om het te gaan gebruiken.

Wat Ubuntu's (huidige) marktaandeel ook helpt zijn die halfjaarlijkse releases en de algemene nieuwheid van de software. Dat promoot lekker vlotjes namelijk. Maar ironisch genoeg lijkt dat net hetgene te zijn dat bij bestaande gebruikers tot klachten begint te leiden.
Met als gevolg een driver die de grafische kaart kan aansturen, maar vanwege de bedrijfsgeheimen niet 3d kan, of niet alle features ondersteunt. Wat zeg je dan tegen een Nvidia?
"i can haz specz plz?" :+

Ik geloof niet dat er boeiende bedrijfsgeheimen in de hardware aansturing zitten. In de drivers? Ongetwijfeld, maar daar hoeven we de source niet van (nouja, zou leuk zijn, daar niet van). Merk op dat NVidia's twee grootste concurrenten, ATi en Intel, wel specs geven. Zo groot is voor hen het voordeel van die specs geheim houden dus niet.
Je beeldscherm instellen is wel wat meer dan alleen de resolutie anders. Ik kan aan mijn laptop nog steeds niet fatsoenlijk een extern scherm hangen en gebruiken
Je hebt gelijk, daar heb ik inderdaad niet aan gedacht, en dat is inderdaad iets dat nog gebrekkig is. Maar er wordt wel aan gewerkt aan betere hotplug + dualhead goodness.

Maar waar ik eigenlijk op aanstuurde met mijn vorige post: Er moet geen tool zijn die alle zooi in xorg.conf instelbaar maakt. De backend (Xorg) moet gewoon de mogelijkheden automatisch detecteren, en dat moet dan netjes via een preferences scherm in je DE in te stellen zijn.
Jungian schreef op woensdag 16 juli 2008 @ 19:23:
[...] en de 28318531 verschillende Ati open source drivers [...]
Ik tel er maar twee: radeon en radeonhd?
Ik vraag me af wat voor orakel de Windows- en OSX-(kernel)devs dan wel niet gebruiken. Die krijgen het blijkbaar wel voorelkaar iets inelkaar te zetten waar ze gedurende lange tijd tevreden mee kunnen zijn.
Geen fatsoenlijk orakel blijkbaar, want zij moeten ook zulke veranderingen doorvoeren.
Leuk stukje tekst, maar teksten als “the goal is to provide the “Just Works” experience” en “that support continues through all future versions” neem ik met een flink korreltje zout.
Wat is er mis met die eerste quote? Geloof je niet dat dat het doel is? Of bedoel je dat dat niet lukt? Kernelside lukt dat volgensmij al heel aardig, behalve daar waar fabrikanten niet scheutig zijn met specs (bv wireless en 3D video). In Xorg wil het nog wat minder, maar Xorg heeft een ontwikkelachterstand.

En "all future versions" is natuurlijk een beetje overdreven, maar drivers worden over het algemeen pas verwijderd als ze kapot zijn en er niemand meer lijkt te zijn die ze gebruikt. Hardware die drivers in-tree heeft wordt over het algemeen erg lang ondersteund.
Er zit een verschil tussen een half jaar tot een jaar een compatibility-layer onderhouden (wat @ Linux nu al niet eens gebeurd), zodat iedereen de tijd heeft om zijn code aan te passen en 10 jaar (a la Windows).
Maar het idee is dus juist dat de code in-tree zit, en meteen mee aangepast wordt bij een interne interface verandering. Dan heb je geen 10 jaar van compatibility nodig.
Dat denk ik ook altijd als RMS aan het woord is. Dat slappe geouwehoer bij het vertrek van Bill Gates zijn van die momenten waarvoor hij leeft.
Maar hij loopt in ieder geval geen mensen uit te schelden, en hij onderbouwt zijn standpunten over het algemeen vrij degelijk.

Je hoeft het niet met hem eens te zijn, of je kunt hem te ver vinden doordraven, maar geen van beiden vind ik een rechtvaardiging om hem (of de mensen die het met hem eens zijn) "gestoorde kelderbewoners" te noemen.
“In de big-picture zin van het woord” zijn proprietary drivers of de enige oplossing (geen specs) of de betere oplossing (zie NVIDIA), dus ik weet niet waar je op doelt ?
Zie de klachten over de proprietary drivers; gezeik met kernel-upgrades, niet debugbaar bij crashes, geen ondersteuning op niet x86(-64) architecturen, gedropte support voor oudere kaarten. Je hardware werkt (meestal) wel, maar op lange termijn lijkt een investering in open-source drivers me beter.
Graag, maar ik ga pas volgende week op vakantie. :)
Sorry van mijn botte reply, maar dat "1% doet ooit wat met de source" argument schiet me meer en meer in het verkeerde keelgat. Mensen die dat argument hanteren vergeten dat de overige 99% ook voordeel heeft van die 1% die wat met de source doet. Zonder de source krijg je een soort tweede Windows, maar dan anders. En ik denk niet dat dat de reden is dat mensen GNU/Linux gebruiken.
Zo natuurlijk vind ik dat helemaal niet. Je gaat me niet wijsmaken dat al die FOSS-devs met AL hun werk na AL die jaren nog steeds niet kunnen gaan stabiliseren en standaardiseren op zoveel mogelijk vlakken.
Stabiliseren hoe? Door het tempo van veranderingen / verbeteringen omlaag te schroeven?
GTK of QT wegsnijden zou al een hoop dubbel werk en testen schelen.
Misschien, maar of het de moeite waard is? Grappig genoeg las ik er toevallig vandaag wat speculatie op Planet Gnome over.
Jij gaat er voor het gemak vanuit dat op elke corporate desktop twee toolkits staan ? Je mag al blij zijn als je een calculator krijgt.
Ik ga er vanuit dat als een gebruiker in een corporate omgeving een applicatie wil, dat hij die aanvraagt bij systeembeheer. En dat systeembeheer de applicatie en eventuele benodigdheden installeert.
Als je geen bepaalde geluidsdaemon target kun je zomaar geen geluid hebben. Je mag er zelfs al niet vanuit gaan dat iets simpels als ALSA werkt (zie de PA-fuckup van Ubuntu).
Ik weet niet hoe het in KDE zit, maar in Gnome is het gebruikelijk voor geluid gstreamer te gebruiken. Gstreamer kan allerlei sound backends gebruiken, en welke default gebruikt wordt is ingesteld in gconf. Je hoeft dus geen bepaalde backend te targeten of zelfs maar in te stellen.

En de PA fuckup is een probleem van Ubuntu, niet van Gnome vs. KDE.
Ik had het niet persé over QT/GTK desktop-apps en ik doelde eigenlijk meer op tussenlagen als SDL.
Hoe gaat het op voor SDL dan? SDL is een alternatieve keuze voor GTK of QT, met andere eigenschappen; GTK en QT zijn voor "normale" desktop apps met knopjes enzo, SDL geeft je een vlak waarin je mag tekenen (met oa OpenGL, fullscreen en acceleratie support). SDL is daarom aardig populair voor spellen en sommige videospelers en dergelijke. Maar ook daar geldt dat geluid weg wordt geabstraheerd.
Proprietary drivers zorgen er niet voor dat ABI’s veranderen en compatibilitylagen ontbreken.
Nee, maar zo werkt Linux development. En de voor open-source drivers is het geen probleem.
Bedrijven die hun code absoluut niet willen vrijgeven zul je met constant gebombardeer echt niet het licht kunnen laten zien.
De code hoeven ze ook niet vrij te geven. De specs ook niet, maar dat zou de acceptatie wel helpen.

Ik val ze overigens niet lastig, ik stem met mijn portomonnee; ik koop gewoon geen hardware waar geen (voor mij afdoende) open-source drivers voor zijn.

shit hee, dit is volgensmij mijn langste post ooit hier :P

Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
writser schreef op woensdag 16 juli 2008 @ 19:07:
[...]


huh? Dan heb je liever een beta-release die om de haverklap vastloopt? 8)7
Moet ik hier nog serieus op reageren of begreep je me antwoord niet?

In een zakelijke omgeving zit je helemaal niet te wachten op beta software nog op de huidige troep die Ubuntu serveert als LTS gelabelde uitgave 8.04. Het moet werken punt uit...
Om dan huidige LTS 8.04 uitgave te gaan bestempelen als ideale software uitgave voor bedrijfsleven is me dan ook een compleet raadsel.

Acties:
  • 0 Henk 'm!

  • Mentalist
  • Registratie: Oktober 2001
  • Laatst online: 30-08 02:04

Mentalist

[avdD]

Jungian schreef op woensdag 16 juli 2008 @ 19:23:
[...]

“In de big-picture zin van het woord” zijn proprietary drivers of de enige oplossing (geen specs) of de betere oplossing (zie NVIDIA), dus ik weet niet waar je op doelt ?
Avermedia heeft eens een Linuxdriver voor hun E506R TV-kaart gemaakt. Voor een paar antieke distro's met antieke kernel. Die driver was bijna direct na z'n release al nutteloos. Wat moet ik op dit moment daarmee? Daar heb ik toch niks aan? Dat werkt toch niet?

nVidia en ATi zijn één van de weinigen die een somewhat bruikbare driver hebben weten te maken door de driver goed up-to-date te houden, maar lang niet alle fabrikanten kunnen dat. En dan nog geeft het wel eens problemen. De bak van m'n moeder gebruikt ook de nv driver omdat ik die machine liever niet zie breken.
En "all future versions" is natuurlijk een beetje overdreven, maar drivers worden over het algemeen pas verwijderd als ze kapot zijn en er niemand meer lijkt te zijn die ze gebruikt. Hardware die drivers in-tree heeft wordt over het algemeen erg lang ondersteund.
De driver voor de Western Digital videokaart in mijn Thinkpad 750C is gedropt. :(

[ Voor 24% gewijzigd door Mentalist op 17-07-2008 00:43 ]

Verstuurd vanaf mijn Computer®


Acties:
  • 0 Henk 'm!

  • Jungian
  • Registratie: Juni 2006
  • Niet online

Jungian

>_<

deadinspace schreef op donderdag 17 juli 2008 @ 00:12:
Oh, en ik denk dat je Linus' medewerking in zo'n systeem wel kunt vergeten :P
Hij zal er vast een opmerking over (masturberende) aapjes tegenaan gooien. 8)
Geen fatsoenlijk orakel blijkbaar, want zij moeten ook zulke veranderingen doorvoeren.
NATUURLIJK moeten ze veranderingen doorvoeren, het verschil is alleen dan ze dit niet om de twee/drie maanden (hoeven te) doen. Je beperkingen zien en vooruitzien is heersen.
Wat is er mis met die eerste quote? Geloof je niet dat dat het doel is? Of bedoel je dat dat niet lukt? Kernelside lukt dat volgensmij al heel aardig, behalve daar waar fabrikanten niet scheutig zijn met specs (bv wireless en 3D video). In Xorg wil het nog wat minder, maar Xorg heeft een ontwikkelachterstand.
Ik denk dat het doel iets te ambitieus is.
En "all future versions" is natuurlijk een beetje overdreven, maar drivers worden over het algemeen pas verwijderd als ze kapot zijn en er niemand meer lijkt te zijn die ze gebruikt. Hardware die drivers in-tree heeft wordt over het algemeen erg lang ondersteund.
Ik zag meer de link tussen regressies en "all future versions". ;)
Maar het idee is dus juist dat de code in-tree zit, en meteen mee aangepast wordt bij een interne interface verandering. Dan heb je geen 10 jaar van compatibility nodig.
Je moet je afvragen of het dus realistisch is om zomaar vanuit te gaan dat al het belangrijke z'n plaatsje krijgt in de kernel. We leven niet in een utopie (anders hadden we deze hele discussie niet gehad en bestonden patenten en copyright slechts in extreem afgeslankte vorm).
Zie de klachten over de proprietary drivers; gezeik met kernel-upgrades, niet debugbaar bij crashes, geen ondersteuning op niet x86(-64) architecturen, gedropte support voor oudere kaarten. Je hardware werkt (meestal) wel, maar op lange termijn lijkt een investering in open-source drivers me beter.
Veruit het grootste probleem zijn de constant veranderende ABI's waar fabrikanten mee te maken. Probleem nummer twee is dat fabrikanten inderdaad op een gegeven moment "fuck you" kunnen zeggen en je hardware niet meer ondersteunen of in een legacy-driver knallen (NVIDIA).
Zonder de source krijg je een soort tweede Windows, maar dan anders. En ik denk niet dat dat de reden is dat mensen GNU/Linux gebruiken.
Ik vind dat een te dramatische insteek. Eén binary blob op je systeem maakt er niet meteen een proprietary OS van. Het ligt er verder aan waar je als community de lijn trekt.
Stabiliseren hoe? Door het tempo van veranderingen / verbeteringen omlaag te schroeven?
Constant innoveren (grote wijzigingen doorvoeren) is voor zover ik weet bij software development een no-go. Wat dan nog overblijft is geleidelijk aanpassingen maken of beslissen dat technologiex nu functioneel genoeg is om te stabiliseren. Ondertussen kan er dan gewerkt worden aan een opvolger (QT3 -> QT4 lijkt me een goed voorbeeld).

Het kan zijn dat het boek dat ik heb gelezen over Kaizen zijn sporen heeft nagelaten.
Misschien, maar of het de moeite waard is? Grappig genoeg las ik er toevallig vandaag wat speculatie op Planet Gnome over.
Die post heb ik inderdaad ook gelezen (ik volg ook de Planets). Het grootste probleem uit zijn lijstje lijkt me vooral het afstoten van developers die al jarenlang verbonden zijn met GTK+. KDE proberen te fuseren met GNOME lijkt mij vanwege de behoorlijke HIG-verschillen onmogelijk, maar ze zouden prima naast elkaar kunnen leven en toch dezelfde toolkit kunnen gebruiken (zoals GNOME en Xfce nu). Een shitload aan software raakt zo overbodig, waardoor alle/meer devtijd gestoken kan worden in één uniform geheel. Ze zijn nu nog bezig de richting te bepalen van GTK3, maar als die ook alle bruggen verbrandt met GTK2 (zoals ook met GTK1 is gebeurd) lijkt QT4 mij zeker geen slechte keuze.
Ik ga er vanuit dat als een gebruiker in een corporate omgeving een applicatie wil, dat hij die aanvraagt bij systeembeheer. En dat systeembeheer de applicatie en eventuele benodigdheden installeert.
Even single-user mode en klaar. :X
RFC's komen natuurlijk vrijwel altijd terecht op een grote stapel, waarbij ze RSN (niet te verwarren met ASAP) uitgevoerd worden. Niet handig, niet wenselijk. Gelukkig komt KDE steeds minder voor (nofi) in het bedrijfsleven, waardoor targetten weer een stukje makkelijker wordt.
Ik weet niet hoe het in KDE zit, maar in Gnome is het gebruikelijk voor geluid gstreamer te gebruiken. Gstreamer kan allerlei sound backends gebruiken, en welke default gebruikt wordt is ingesteld in gconf. Je hoeft dus geen bepaalde backend te targeten of zelfs maar in te stellen.
Xine is er natuurlijk ook nog. Het probleem is alleen dat je ervanuit gaat dat gstreamer (en alle benodigde libs) aanwezig zijn. Of je nu PA of Gstreamer target, de libs moeten er wel zijn. In een ideale wereld zou iedereen PA of regular good old ALSA gebruiken, waardoor de kans op dit soort geneuzel tot het minimum beperkt wordt. Bij een beperkte uitrol (maatwerksoftware bijvoorbeeld) zijn dit soort dingen natuurlijk al helemaal geen issue, omdat je dan als het goed is alle requirements/randvoorwaarden weet.
En de PA fuckup is een probleem van Ubuntu, niet van Gnome vs. KDE.
Uiteraard.
Hoe gaat het op voor SDL dan? SDL is een alternatieve keuze voor GTK of QT, met andere eigenschappen; GTK en QT zijn voor "normale" desktop apps met knopjes enzo, SDL geeft je een vlak waarin je mag tekenen (met oa OpenGL, fullscreen en acceleratie support). SDL is daarom aardig populair voor spellen en sommige videospelers en dergelijke. Maar ook daar geldt dat geluid weg wordt geabstraheerd.
Ik kan niet uitsluiten dat mijn slechte ervaringen met het linken van SDL-software met nieuwere versie van de SDL-libs niet aan bespottelijk slecht geprogrammeerde meuk ligt (deprecated API's gebruiken). Zelfs de compile-output had me dat kunnen vertellen toen...
Nee, maar zo werkt Linux development. En de voor open-source drivers is het geen probleem.
De problemen die ik (en natuurlijk niet alleen ik) heb gehad met de Intel-driver en andere open source drivers heb gehad (de i810-driver laat ik maar even buiten beschouwing) waren wel degelijk echt. Het merendeel van de problemen waren regressies en nieuwe features die destijds zo cool waren dat ze niet goed werkten (AIGLX). Een tandje lager kan echt geen kwaad. Laten we gaan voor kwaliteit (stabiele, mooie software) in plaats van kwantiteit (regressies, meer functionaliteit).
Ik val ze overigens niet lastig, ik stem met mijn portomonnee; ik koop gewoon geen hardware waar geen (voor mij afdoende) open-source drivers voor zijn.
Je portemonnee blijft het beste middel om een statement mee te maken, helemaal als je een grote groep mensen meekrijgt (we gaan wel op de utopie-toer vanavond).
shit hee, dit is volgensmij mijn langste post ooit hier :P
n00b :+

offtopic:
Volgens mij blijkt niet echt dat ik FOSS een warm hart toedraag. :+

edit:
Lekker laat weer

0.0


Acties:
  • 0 Henk 'm!

  • Eusebius
  • Registratie: November 2001
  • Niet online
Zo, mijn gemier na de laatste kernel-update is weer (hopelijk) voorbij. Via de auto-update kreeg ik kernel .19 binnen waarna mijn xorg.conf naar z'n grootje was. Mijn dualscreen werkte niet meer.

Hoe ik het voor elkaar gekregen heb, weet ik niet precies. Maar in ieder geval heb ik vanuit Windows mijn oude xorg.conf teruggezet en moest ook nog xinerama verwijderen. Maar daarna werkte de nvidia-settings weer goed.

Nu mijn vraag: kan ik op de één of andere manier snel alle systeem dingen back-uppen? Een soort migratie van alle vitale 'organen' in Linux? Zodat ik na opnieuw zo'n grapje snel de boel terug kan zetten.

==
hoi


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
deadinspace schreef op donderdag 17 juli 2008 @ 00:12:
Inderdaad, maar toch voegt Canonical ze toe.
En ik ben het met je eens als je je afvraagt of dat wel verstandig. Wil je een distributie die cutting edge is, of eentje die conservatiever is met dus oudere software die zich wat meer heeft bewezen. Ik wil allebei! Shit! :+
(dat is niet heel serieus bedoeld natuurlijk, ik wil maar aangeven dat ik er alle begrip voor heb dat het lastig is, en dat ik Canonical verder niet afval omdat ik Ubuntu erg mooi vind, sinds het begin al)
Nouja, de haalbaarheid hangt natuurlijk af van de scope. Als het alleen om Linux, Xorg en Gnome gaat, dan is het misschien nog te doen. Maarja, dan wil je KDE ook natuurlijk voor de gelijktijdig te releasen Kubuntu. En openoffice. En Firefox. En the Gimp. En iedereens favoriete programmaatje voor dit en dat. En dat zie ik niet gebeuren. Ik denk ook dat het niet praktisch is.
Ik doel vooral op inderdaad de grootste onderdelen: Gnome, Linux, Xorg, en dan ben je echt al een heel eind. Een Gimp en Openoffice en dergelijk staan op een wat hoger niveau qua gebruikerservaring, en dat OpenOffice een bepaalde feature nog niet bevat.. ach. Dat geeft niet zo'n slechte indruk als wanneer features om je PC goed in te stellen niet goed werken.
Ik ben trouwens sowieso geen fan van deadline based releasen. Ik denk dat de kwaliteit van de software hoger komt te liggen door te releasen wanneer het klaar is, niet wanneer een willekeurige datum verstreken is.

Oh, en ik denk dat je Linus' medewerking in zo'n systeem wel kunt vergeten :P
Aan de ene kant is dat een nadeel van deadline-based releasen, aan de andere kant: als je geen deadline aanhoudt, wanneer release je dan? Ga je een set features samenstellen en zeggen "als ik dat bereikt heb, releasen we"? Dat is ook weer minder duidelijk naar je publiek toe, die zitten nagelbijtend te wachten zeg maar. :)
Elke manier heeft duidelijke voor- en nadelen wat dat betreft.

Oh en Linus zie ik ook niet gauw meewerken. Ik heb respect voor die man, maar eerlijk gezegd is ie zo recalcitrant als wat, en wat anderen zeggen boeit 'm over het algemeen maar weinig. Als ie het ergens niet mee eens is gebeurt het niet. Qua teamplay zou ik 'm zelf niet zo heel snel als aanwinst zien.
Ja, en een paar maanden later gooien ze het block device framework overhoop om de latency te verlagen voor flash disks. Weer een nieuwe branch? Daarna een wireless stack revamp om de verschillende aanpakken die al bestonden te verenigen. Nog maar een nieuwe branch? Dat werkt niet goed.
Óók niet goed dan, want zoals gaat het ook verre van soepel. Misschien is gewoon wat water bij de wijn een idee. Dan maar niet perfect, perfectie bestaat in deze sowieso niet. Samenwerken lijkt me gewoon ZO belangrijk bij het maken van een heel OS.
Ja, en kerneldevelopers zijn degenen die de kernel (inclusief drivers) ontwikkelen en onderhouden, en dat die taak voor hen te doen is lijkt me vrij belangrijk.
Natuurlijk, maar als je steeds een kernel hebt maar dan vertragingen oploopt omdat je moet wachten tot iedereen de drivers heeft geupdate... dat is het gewoon ook niet.
Ja, maar dat heeft niks te maken met proprietary drivers. Het installeren van die dingen is op Ubuntu niet dramatisch anders dan op de meeste andere distributies.
Dat wel, maar goede proprietary drivers moeten ergens vandaan komen, en een bedrijf als Canonical kon weleens meer bereiken met andere bedrijven (zoals dus AMD en Nvidia) dan bijvoorbeeld Pat Volkerding. Nu is dat van mijn kant voornamelijk speculatie, ik ben geen bedrijfskundige ofzo dus ik kan er helemaal naastzitten, maar toch. :)
Wat Ubuntu's (huidige) marktaandeel ook helpt zijn die halfjaarlijkse releases en de algemene nieuwheid van de software. Dat promoot lekker vlotjes namelijk. Maar ironisch genoeg lijkt dat net hetgene te zijn dat bij bestaande gebruikers tot klachten begint te leiden.
En niet alleen tot klachten begint te leiden, maar dus ook tot VEEL klachten. De boom wordt steeds hoger en vangt derhalve steeds meer wind. En een probleem dat relatief kleinschalig begon wordt steeds ernstiger, er komen steeds meer gebruikers met verschillende systemen (verschillende laptops, PC's met uiteenlopende configuraties) bij en daarom begon ik die discussie erover ook.
"i can haz specz plz?" :+

Ik geloof niet dat er boeiende bedrijfsgeheimen in de hardware aansturing zitten. In de drivers? Ongetwijfeld, maar daar hoeven we de source niet van (nouja, zou leuk zijn, daar niet van). Merk op dat NVidia's twee grootste concurrenten, ATi en Intel, wel specs geven. Zo groot is voor hen het voordeel van die specs geheim houden dus niet.
Intel is inderdaad een goed voorbeeld van hoe het moet, AMD heeft aangegeven ook veel opener te zijn en dat heeft zich vooralsnog vertaald in behoorlijk goede open drivers, maar die open drivers, bieden die alle features van NIEUWE Ati-kaarten ook? Ik dacht alleen van de wat oudere chips eigenlijk. En dat de gesloten drivers dan weer meer bieden voor nieuwere kaarten. Maargoed, gaat wel steeds ietsje beter allemaal en we kunnen er veel mee.
Je hebt gelijk, daar heb ik inderdaad niet aan gedacht, en dat is inderdaad iets dat nog gebrekkig is. Maar er wordt wel aan gewerkt aan betere hotplug + dualhead goodness.
Dat is natuurlijk mooi, maar intussen heeft Canonical dus een tool meegeleverd die niet lekker werkt. En dat is niet handig van Canonical.
Maar waar ik eigenlijk op aanstuurde met mijn vorige post: Er moet geen tool zijn die alle zooi in xorg.conf instelbaar maakt. De backend (Xorg) moet gewoon de mogelijkheden automatisch detecteren, en dat moet dan netjes via een preferences scherm in je DE in te stellen zijn.
Maar tot dat helemaal goed werkt (automatisch detecteren) moet het met de hand te doen zijn lijkt me.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Ik vind juist WEL dat er een tool moet zijn waarmee je je beeldscherm en videokaart in kunt stellen. In heel veel gevallen wordt het namelijk niet juist gedetecteerd, en de gemiddelde gebruiker gaat er dan gewoon niet uitkomen. Ik zie geen reden om het NIET te doen. Uiteraard moet zoiets wel met sudo-rechten gebeuren zodat niet iedereen hier zomaar mee kunnen spelen.

Vicariously I live while the whole world dies


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 19:48

Cyphax

Moderator LNX
Zelfs al wordt het allemaal goed gedetecteerd, dan nog is het maar de vraag of je dat ook wilt. Er zijn zat mensen die een lagere resolutie in willen stellen op hun monitor omdat het anders te klein is allemaal. En dat het dan minder mooi is omdat de resolutie niet de "juiste" is maakt ze niet zoveel uit. Dus het moet sowieso te wijzigen zijn.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • MaximusTG
  • Registratie: April 2003
  • Niet online
(overleden)
Cyphax schreef op donderdag 17 juli 2008 @ 13:45:
Zelfs al wordt het allemaal goed gedetecteerd, dan nog is het maar de vraag of je dat ook wilt. Er zijn zat mensen die een lagere resolutie in willen stellen op hun monitor omdat het anders te klein is allemaal. En dat het dan minder mooi is omdat de resolutie niet de "juiste" is maakt ze niet zoveel uit. Dus het moet sowieso te wijzigen zijn.
Te klein? Daarvoor kan je de resolutie (dpi) bij de lettertype instellingen voor veranderen...

Zin in pizza? Probeer 'mijn' pizzarecept eens! Laatste versie pizzarecept Blog:KookKompas


Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Cyphax schreef op donderdag 17 juli 2008 @ 13:45:
Zelfs al wordt het allemaal goed gedetecteerd, dan nog is het maar de vraag of je dat ook wilt. Er zijn zat mensen die een lagere resolutie in willen stellen op hun monitor omdat het anders te klein is allemaal. En dat het dan minder mooi is omdat de resolutie niet de "juiste" is maakt ze niet zoveel uit. Dus het moet sowieso te wijzigen zijn.
Je kunt je resolutie wel wijzigen, alleen staat daar soms niet degene tussen die ik wil (terwijl dat juist de enige goede was!). Mijn Asus AL1916W is namelijk 1440x900, maar zowel Debian als Ubuntu detecteerden hem als 1400x1050 waardoor het er allemaal niet uitzag (terwijl de monitor wel juist gedetecteerd werd als ASUS AL1916W!). 1440x900 stond echter niet tussen de resoluties die ik kon kiezen, en verder kon ik niets aanpassen. Moest ik dus echt weer dpkg-reconfigure xserver-xorg doen, vind ik niet echt handig gemaakt...

Vicariously I live while the whole world dies


Acties:
  • 0 Henk 'm!

  • Mentalist
  • Registratie: Oktober 2001
  • Laatst online: 30-08 02:04

Mentalist

[avdD]

Cyphax schreef op donderdag 17 juli 2008 @ 13:45:
Zelfs al wordt het allemaal goed gedetecteerd, dan nog is het maar de vraag of je dat ook wilt. Er zijn zat mensen die een lagere resolutie in willen stellen op hun monitor omdat het anders te klein is allemaal. En dat het dan minder mooi is omdat de resolutie niet de "juiste" is maakt ze niet zoveel uit. Dus het moet sowieso te wijzigen zijn.
En ik wil op een oudere laptop met Neomagic videochip 16 bits kleuren forceren. Leuk dat ie 32 bits kan maar dan werkt videoacceleratie niet. En op andere machines wil ik kunnen kiezen tussen de nv en de nvidia driver.

En op m'n desktop heb ik een hele tijd het probleem gehad dat Gnome steeds maar vergat dat ik een US Intl. keyboard met dead keys heb. Na iedere reboot moest ik het opnieuw instellen. Uiteindelijk heb ik het maar in xorg.conf gezet en nu blijft het wel goed. Maar dat was niet makkelijk, en ik heb flink door Google moeten spitten voor ik erachter was hoe dat moest.

Dus een tool om xorg.conf makkelijk te configgen zou zeker welkom zijn. dpkg-reconfigure xserver-xorg doet tegenwoordig volgens mij ook weinig meer.

[ Voor 7% gewijzigd door Mentalist op 17-07-2008 19:25 ]

Verstuurd vanaf mijn Computer®


Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Mjah... in de laatste ubuntu versie doet dpkg-reconfigure xserver-xorg geloof ik alleen nog je toetsenbordinstellingen wijzigen. Vragen over je beeldscherm worden helemaal overgeslagen :S

Vicariously I live while the whole world dies


Acties:
  • 0 Henk 'm!

  • gertvdijk
  • Registratie: November 2003
  • Laatst online: 18-09 11:40
poep

[ Voor 94% gewijzigd door gertvdijk op 17-07-2008 22:50 . Reden: beter manpages kijken ]

Kia e-Niro 2021 64 kWh DynamicPlusLine. See my GitHub and my blog for articles on security and other stuff.


Acties:
  • 0 Henk 'm!

  • Vicarious
  • Registratie: Juni 2008
  • Laatst online: 24-06-2024

Vicarious

☑Rekt | ☐ Not rekt

Overigens heb ik vandaag eens die nvidia drivers van de site af geinstalleerd, en nu heb ik bij mijn System Tools een Nvidia tooltje. Kan ik mijn resolutie en refresh rate instellen, en mijn beeldscherm wordt automatisch gedetecteerd. Als ik dit gewoon via aptitude installeer krijg ik dat tooltje er helemaal niet bij...

Vicariously I live while the whole world dies

Pagina: 1 ... 28 ... 31 Laatste

Dit topic is gesloten.

Let op:
Dit is een topic om ervaringen uit te wisselen!!! Stel vragen in een apart topic om antwoorden vindbaar te houden !!!
vergeet ook niet even de topicstart door te lezen