Toon posts:

Processorsnelheden

Pagina: 1 2 Laatste
Acties:
  • 704 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Ik moet voor mijn nieuwe HBO studie een laptop hebben en ik zit ernstig te twijfelen tussen een apple laptop en een aantal gewone laptops, nu vind ik de iBooks ed veel mooier dan gewone laptops maar wat me altijd opvalt is dat de processorsnelheden van apple's veel lager liggen dan bij gewone laptops. Bij een iBook van ongeveer 1200 euro zit een processor van bv 1.3 GHz en bij een vergelijkbare laptop zit dat ruim boven de 2 en soms boven de 3 GHz, ligt dit er aan dat de apple zijn kracht beter benut of zuiniger is of is er een ander groot verschil?

Bas

  • Nik
  • Registratie: April 2004
  • Laatst online: 09-02 21:40

Nik

En Apple is niet te vergelijken met elk ander systeem dan ook. Ze zijn gewoon véél sneller!

Zie het als AMD vs. Intel, Intel heeft écht 3.0 GHz, maar een AMD 3000+ presteerd gelijk aan een P4 3.0! En toch draait de AMD op een lagere snelheid. Dit heeft alles te maken met het feit dat een AMD CPU meer kan verwerken per kloktik.

Correct me if I am wrong...

Verwijderd

Topicstarter
Ok, dus een Apple met 1.3 GHz kan ongeveer evenveel verdragen als een normale notebook met ongeveer 2.5-3.0 GHz?

  • Nietzman
  • Registratie: April 2000
  • Laatst online: 12-02 10:27

Nietzman

Woei!


Verwijderd

Topicstarter
Nooit geweten zeg. Zeer interessant filmpje.

  • botoo
  • Registratie: November 1999
  • Laatst online: 12:57

botoo

💀 too old to die young

Mooi beeldend verhaal :)
Maar we moeten natuurlijk uit het oog verliezen dat dit 'Apple Talk' is (nee ik bedoel niet dit sub-forum :+), als je hetzelfde verhaal door Intel laat vertellen dan zullen zij andere, voor hun ontwerp gunstigere, punten aanstippen.
Verder mis ik wel AMD in de vergelijking (wat imho(!) nog steeds geen echte speler in de mobile-markt is).

Ook moet je rekening houden met platform geoptimaliseerde software, sommige progsels doen het nu eenmaal beter/slechter op verschillende platformen.
Verwijderd schreef op zondag 05 december 2004 @ 17:48:
Bij een iBook van ongeveer 1200 euro zit een processor van bv 1.3 GHz en bij een vergelijkbare laptop zit dat ruim boven de 2 en soms boven de 3 GHz . . .?
Die 3GHz laptops zijn waarschijnlijk de Pentium IV's en dat zijn bepaald geen snelheidsmonsters, zeker niet als je ze vergelijkt met de eigen Intel Centrino's die op de helft van die snelheid lopen.

FXDLS 'S&S edition'

💀 memento mori 💀


  • Alpha-sphere
  • Registratie: Januari 2001
  • Laatst online: 14-12-2021
Om nou te zeggen dat een G4 veel sneller is is ook weer een beetje overdreven. Op dezelfde kloksnelheid is het ongeveer hetzelfde verhaal als met AMD vs Intel. Verwacht echter niet dat een 1,3 Ghz G4 even snel is als een P4 2,5/3 Ghz. Voordeel van Apple is dat ze alles zelf in de hand hebben. Met een eigen OS en specifieke hardware verbaast het me niet dat veel programma's geoptimaliseerd zijn voor de G4 of G5. Ik werk zelf met een 1,33 Ghz G4 en ik moet zeggen dat ik erg tevreden ben. Een 2 Ghz zou fijn zijn voor echte zware applicaties maar ik mis het niet ofzo.

Assume there are no rules and it's one big free for all


  • Q
  • Registratie: November 1999
  • Laatst online: 13:29

Q

Au Contraire Mon Capitan!

Verwijderd schreef op zondag 05 december 2004 @ 17:48:
Ik moet voor mijn nieuwe HBO studie een laptop hebben en ik zit ernstig te twijfelen tussen een apple laptop en een aantal gewone laptops, nu vind ik de iBooks ed veel mooier dan gewone laptops maar wat me altijd opvalt is dat de processorsnelheden van apple's veel lager liggen dan bij gewone laptops. Bij een iBook van ongeveer 1200 euro zit een processor van bv 1.3 GHz en bij een vergelijkbare laptop zit dat ruim boven de 2 en soms boven de 3 GHz, ligt dit er aan dat de apple zijn kracht beter benut of zuiniger is of is er een ander groot verschil?

Bas
Een laptop van een vergelijkbare prijs heeft met een beetje geluk een centrino aan boord. Ik acht het niet onmogelijkdat deze laptops sneller zijn dan de ibooks. Maar de vraag is: wat is snel genoeg? Ik tik dit op mijn 800 lullige mhz-jes ibook en ik zou best sneller willen, maar eerlijk is eerlijk, het is snel genoeg, voor mij. Het is maar net wat je er mee gaat doen.

  • wacko
  • Registratie: Juni 2000
  • Laatst online: 22-01 15:21
Ja, het is zo'n beetje waarom een P-M 1.7 GHz ongeveer net zo snel is als een P4 3.0 GHz, de interne architectuur is gewoon heel anders. De PowerPC CPUs van o.a. Apple zijn inderdaad sneller bij gelijke kloksnelheid, maar als de kloksnelheid van een PC veel hoger is zal die uiteindelijk weer sneller zijn.

Nu zou ik veel liever een P-M dan een P4 in een laptop willen ivm stroomverbruik en warmte. Bij laptops moet je niet puur naar de snelheid kijken zoals bij desktop PC's waarbij die factoren meestal niet zoveel uit maken. Kijk ook naar bijvoorbeeld de portabiliteit, een beetje P4 laptop is al snel zo'n 4cm dik.

Apple laptops zijn altijd wel dun (hoewel iBooks ook niet echt superslank zijn), maar je hebt ook bijvoorbeeld hele dunne PC Centrino laptops (die dus ook niet zoveel MHz aan boord hebben, maar evengoed flink snel zijn).

  • Bigs
  • Registratie: Mei 2000
  • Niet online
Je wilt trouwens geen 3GHz CPU in je laptop.. dan krijg je meestal een log ding wat bovendien niet lang op z'n accu kan werken.

Verwijderd

Als je een apple portable koopt moet je die absoluut niet kopen voor de snelheid en games. Apple loopt gewoon achter als het om rauwe snelheid gaat bij de portables. Waar apple weer wel uitblinkt is het design, accuduur, draagbaarheid. Probeer maar eens een A+ merk (sony) 12" laptop te kopen, ben je snel 1500 a 2000 euro kwijt, dan is een iBook zeker een goede deal!

  • Whieee
  • Registratie: Augustus 2001
  • Laatst online: 14-02 16:27

Whieee

Moderator Apple Talk

⌘ + ⌥ + ⎋

ik heb momenteel een 12" iBook G4 1GHz met Airport Extreme en 768MB RAM en dat is een uitstekende laptop waar ik geen spijt van heb. In games is een x86-laptop sneller, maar als ik bijvoorbeeld een distributed.net client ga draaien (RC5-72) dan draai ik met mijn iBookje sneller dan de 3 IBM T42 laptops van 3 klasgenoten van mij. In dat geval is het "1x G4 1GHz >= 3x Pentium-M Dothan 1.7GHz".

Echter, je koopt een Apple voor het gebruiksgemak en de stabiliteit, niet voor de pure kracht.

Mijn iBook is momenteel te koop, omdat ik wil upgraden naar een PowerBook. Ik weet niet zeker of ik hier zomaar een V&A linkje mag zetten, maar als dat niet mag dan zal die link ook wel weer zo weg zijn...

http://www.tweakers.net/aanbod/product/94416/a

Launching containers into space


Verwijderd

Zeer interessant filmpje. Wist zo langzamerhand wel dat MHz niet alles was. (intel vs amd), maar dit legt wel even leuk uit, wat pipelines nu eigenlijk inhouden. Het enige wat ik me nu afvraag. Bij videokaarten zijn de kaarten met meer pipelines veeel en veeel sneller, hoe komt dat dan?! Of haal ik twee verschillende soorten pipelines door elkaar?

Verwijderd

Verwijderd schreef op maandag 06 december 2004 @ 17:30:
[...]

Zeer interessant filmpje. Wist zo langzamerhand wel dat MHz niet alles was. (intel vs amd), maar dit legt wel even leuk uit, wat pipelines nu eigenlijk inhouden. Het enige wat ik me nu afvraag. Bij videokaarten zijn de kaarten met meer pipelines veeel en veeel sneller, hoe komt dat dan?! Of haal ik twee verschillende soorten pipelines door elkaar?
In dat filmpje gaat het om het aantal pipeline stages (hoelang zo'n pipeline dus is), bij videokaarten wordt er altijd gesproken over het aantal pipelines die tegelijkertijd gebruikt kunnen worden (hoeveel pipelines dus).

  • dion_b
  • Registratie: September 2000
  • Laatst online: 10:39

dion_b

Moderator Harde Waren

say Baah

Leuk filmpje. Beetje simpel (Rubenstein legt niet uit WAAROM je voor snellere clock doorgaans langere pipeline nodig hebt). Bovendien ontbreekt een andere factor, namelijk het IPC (aantal Instructions Per Clock). Een ouderwetse scalar CPU (neem pakweg een 386) voert per kloktik één instructie uit. Een superscalar CPU (bij Intel vanaf de Pentium, hoe het bij 68xx zit weet ik niet, maar PPC is iig superscalar) voert per kloktik meerdere instructies uit. Hoeveel er gemiddeld per kloktik uitgevoerd worden verschilt enorm. Waar Rubenstein wel volledig gelijk in had, was dat er altijd een compromis tussen IPC en kloksnelheid (en zo nog een paar factoren) gemaakt moet worden.

De uitschieters onderstrepen dat - de laagste IPC van een superscalar CPU is (uiteraard) van de Pentium 4. Dat is een design keuze geweest, om alles op alles te zetten voor idioot hoge clock.
Omgekeerd behoort hoogste IPC van een massaproductiechip toe aan de AMD K5. Helaas is het een weinig bekende budgetchip gebleven omdat ondanks de fenomenale IPC AMD gewoon niet in staat was dat ding naar aanvaardbare snelheden op te schalen. Uiteindelijk hebben ze maar NexGen opgekocht en hun Nx686 als 'K6' uitgebracht.

Alle andere CPU's, van de 'eenvoudige' PPC en Pentium tot monsters als de DEC Alpha en G5 zitten ergens tussen die twee uitersten in.


De beste CPUs zitten vaak in het midden. Dat is niet alleen een kwestie van balans, maar vooral van dalende meeropbrengsten. Neem een slome chip en verdubbel de snelheid en je verdubbelt bijna de performance. Neem een snelle en verdubbel de boel en je krijgt veel minder vooruitgang. Zelfde met IPC - een (denkbeeldige) P4 met dubbele IPC zou fenomenaal zijn, een K5 met dubbele IPC zou nog steeds zo traag als wat zijn bij gebrek aan snelheid.


Belangrijkste factoren zijn uiteindelijk helaas puur mundaine prijs en prijs/prestatie. Als ik voor onbeperkt budget een computer mocht bouwen voor eigen gebruik ging er op dit moment waarschijnlijk een IBM Power5 in. Helaas kost een enkele Power5 incl supportchips meer dan mijn persoonlijk vermogen en is ook de prijs/prestatie ongunstig tenzij je echt gruwelijke I/O performance nodig hebt. Ook de keuze voor Apple om Mac X met CPU(s) Y uit te rusten is door zo'n afweging bepaald. En ook waarom kloksnelheden zo geleidelijk omhoog gaan. Intel was bij introductie van de P4 in staat een 2.0GHz CPU te leveren, maar koos ervoor uit commercieel oogpunt dat pas na een jaar in te voeren, bij introductie van de Northwood hetzelfde verhaal voor de 3.0GHz. Omgekeerd had Motorola beruchte yieldproblemen met de G4 en kon daardoor voor de afgesproken prijzen niet de gewenste hoeveelheden hogesnelheidschips leveren.
Zoals Vespasianus al zei, pecunia non olet :z

Oslik blyat! Oslik!


Verwijderd

Verwijderd schreef op maandag 06 december 2004 @ 18:47:
[...]


In dat filmpje gaat het om het aantal pipeline stages (hoelang zo'n pipeline dus is), bij videokaarten wordt er altijd gesproken over het aantal pipelines die tegelijkertijd gebruikt kunnen worden (hoeveel pipelines dus).
Oh ok, bedankt! Ik dacht namelijk dat in dat het tabelletje het aantal pipelines werden weergegeven, maar dat waren blijkbaar het aantal stages... Moet filmpje nog maar eens een keertje goed bekijken

  • Floor-is
  • Registratie: Maart 2000
  • Laatst online: 13-02 19:50

Floor-is

5.2

Ik mis overigens ook dingen als branche prediction en snelheid van Cache (L1/L2/L3), maar ook geheugen en dat de snelheid van de processor niet alles zegt, maar ook wel eens beperkt kan worden door andere onderdelen van de computer. (Harddisks / optische media zijn traag!)

Bericht hierboven


Verwijderd

Tevns is een factor bij zulks aankoop de batterij verbruik... Ik heb een hele stapel pc laptops gehad waarvan de langste batterijtijd richting de twee uur was (centrino)... heb je een 12 inch ibook dan heb je het over 6 uur... yep dat lees je goed...

Ok, het is een klein schermpje maar de grotere schermpjes blijven boven de 4.5 uur..


Grappig is ook dat een extra batterij voor een ibook goedkoper is dan voor de gemiddelde "cheap" pc laptop (Acer bijv.. )

  • Alpha-sphere
  • Registratie: Januari 2001
  • Laatst online: 14-12-2021
Verwijderd schreef op maandag 13 december 2004 @ 14:45:
Tevns is een factor bij zulks aankoop de batterij verbruik... Ik heb een hele stapel pc laptops gehad waarvan de langste batterijtijd richting de twee uur was (centrino)... heb je een 12 inch ibook dan heb je het over 6 uur... yep dat lees je goed...

Ok, het is een klein schermpje maar de grotere schermpjes blijven boven de 4.5 uur..


Grappig is ook dat een extra batterij voor een ibook goedkoper is dan voor de gemiddelde "cheap" pc laptop (Acer bijv.. )
Ik heb een 15" powerbook gehad en nu een 12" powerbook en ik moet zeggen dat 6 uur wel een beetje overdreven is. Als ik op school aan het werken ben dan kan ik zonder WiFi, muziek aan en schermbrightness op full ongeveer 5 uur werken voordat de batterij echt op is. En m'n 15" haalde ongeveer 2,5 a 3 uur.
m'n klasgenoten hebben Centrino laptop die ongeveer 4,5 a 5 uur meegaat.

Assume there are no rules and it's one big free for all


Verwijderd

Alpha-sphere schreef op maandag 13 december 2004 @ 17:17:
[...]

Ik heb een 15" powerbook gehad en nu een 12" powerbook en ik moet zeggen dat 6 uur wel een beetje overdreven is. Als ik op school aan het werken ben dan kan ik zonder WiFi, muziek aan en schermbrightness op full ongeveer 5 uur werken voordat de batterij echt op is. En m'n 15" haalde ongeveer 2,5 a 3 uur.
m'n klasgenoten hebben Centrino laptop die ongeveer 4,5 a 5 uur meegaat.
en wat voor een scherm hebben die centrino laptops dan, welken modellen? Ik zit persoonlijk beetje te twijfelen tussen een SOny Vaio S series of een powerbook 12" en als ik meer geld heb 15" :P

Verwijderd

Alpha-sphere schreef op maandag 13 december 2004 @ 17:17:
[...]

Ik heb een 15" powerbook gehad en nu een 12" powerbook en ik moet zeggen dat 6 uur wel een beetje overdreven is. Als ik op school aan het werken ben dan kan ik zonder WiFi, muziek aan en schermbrightness op full ongeveer 5 uur werken voordat de batterij echt op is. En m'n 15" haalde ongeveer 2,5 a 3 uur.
m'n klasgenoten hebben Centrino laptop die ongeveer 4,5 a 5 uur meegaat.
Zie het nu pas.. maar de P-book slurpt meer dan de ibook....

uiteraard zijn veel geheugen en airport factoren in de batterijtijd.

En idd ik zit meestal in vi te kutten dus das ook geen slurper..

enfin, 6 uur is weldegelijk te halen.

  • 3mph
  • Registratie: November 2003
  • Laatst online: 17-08-2024
Ik zit idd met hetzelfde probleem..
Ben dit jaar met school bezig voor een paar grote projecten bij een aantal bedrijven waarbij ik het liefst op mijn eigen laptop zou werken... makkelijk voor opslaan en terugroepen van je data..
Maar ik twijfel ook tussen een Powerbook van Apple en een reguliere laptop..
Ik wil er gewoon op kunnen textverwerken en tja... het nieuwste van het nieuwste lijkt me niet verkeerd dus ik dacht aan een 15" Powerbook... of een gewone laptop van BenQ ofzo?

lastig..lastig.. lastig...

Ik zie trouwens een paar mooie posts

_/-\o_

  • O.D.Smolik
  • Registratie: Februari 2001
  • Laatst online: 07-11-2025

O.D.Smolik

Geen dag, zonder een appel.

Gebruikt het bedrijf software die niet op een Mac draait? Zoniet, dan heb je echt geen excuus om geen Mac te kopen hoor :P
Ik gebruik voor mijn opleiding redelijk veel Autocad, wat alleen op een Wintel werkt.
En ik moet zeggen dat ik tot vrij goed uit voeten ben gekomen, om zonder een Wintel te werken. Het noodzakelijke tekenwerk doe ik op school en thuis lekker iBooken.

  • Ramon
  • Registratie: Juli 2000
  • Nu online
Verwijderd schreef op maandag 06 december 2004 @ 10:00:
Als je een apple portable koopt moet je die absoluut niet kopen voor de snelheid en games. Apple loopt gewoon achter als het om rauwe snelheid gaat bij de portables. Waar apple weer wel uitblinkt is het design, accuduur, draagbaarheid. Probeer maar eens een A+ merk (sony) 12" laptop te kopen, ben je snel 1500 a 2000 euro kwijt, dan is een iBook zeker een goede deal!
of je kijkt even verder en je koopt een Vaio B1 serie die je 1300 euro achteruitzet, een 14" scherm heeft, en evenveel weegt als de 12" ibook 8)7

Check mijn V&A ads: https://tweakers.net/aanbod/user/9258/


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Ramon de Jesus schreef op dinsdag 08 februari 2005 @ 18:21:
[...]

of je kijkt even verder en je koopt een Vaio B1 serie die je 1300 euro achteruitzet, een 14" scherm heeft, en evenveel weegt als de 12" ibook 8)7
Waar je helemaal wel kunt vergeten om op te gamen met die shared-videokaart... Voor die 1300 euro heb je ook een 14" iBook trouwens...

Om het nog maar niet te hebben over het feit dat een 12" laptop gewoon een stuk draagbaarder is dan een 14".

[ Voor 25% gewijzigd door Luke_msx op 08-02-2005 18:47 ]

Macbook 2,13 GHz 4GB 120GB SSD


  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 09:23
Ramon de Jesus schreef op dinsdag 08 februari 2005 @ 18:21:
[...]

of je kijkt even verder en je koopt een Vaio B1 serie die je 1300 euro achteruitzet, een 14" scherm heeft, en evenveel weegt als de 12" ibook 8)7
en windows draait ;)

  • 3mph
  • Registratie: November 2003
  • Laatst online: 17-08-2024
hier nog een review van een windows user.. wel nice read...

http://www.anandtech.com/mac/showdoc.aspx?i=2326

  • Ramon
  • Registratie: Juli 2000
  • Nu online
jalumsx schreef op dinsdag 08 februari 2005 @ 18:41:
[...]


Waar je helemaal wel kunt vergeten om op te gamen met die shared-videokaart...
wat een onzin-argument, op die ibook kan je lekker gamen zeker?
Voor die 1300 euro heb je ook een 14" iBook trouwens...
maar die weegt dan wel 2,8 kilo ofzo, als je dan toch zoveel gewicht opgeeft dan kan je op het windows-front weer stukken betere laptops vinden. (sony FS serie, 15,4" breedbeeld, 2,85 kilo.
Om het nog maar niet te hebben over het feit dat een 12" laptop gewoon een stuk draagbaarder is dan een 14".
als het maar 0,05 kilo scheelt qua gewicht, dan scheelt het ook weinig qua draagbaarheid natuurlijk...

Check mijn V&A ads: https://tweakers.net/aanbod/user/9258/


  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 09:23
Vergeet niet dat er ook een last van je afvalt (zeker meer dan die 2.85kg) als je windows de deur uit doet ;)

Sony vaio gepreek is denk ik aan dovemans oren gericht op een apple forum :)

  • Johnny
  • Registratie: December 2001
  • Laatst online: 13-02 11:27

Johnny

ondergewaardeerde internetguru

Ramon de Jesus schreef op dinsdag 08 februari 2005 @ 22:50:
[...]
wat een onzin-argument, op die ibook kan je lekker gamen zeker?
[...]
Ik denk dat hij bedoeld dat het op allebei niet lekker gaat. :P
maar die weegt dan wel 2,8 kilo ofzo, als je dan toch zoveel gewicht opgeeft dan kan je op het windows-front weer stukken betere laptops vinden. (sony FS serie, 15,4" breedbeeld, 2,85 kilo.
[...]
als het maar 0,05 kilo scheelt qua gewicht, dan scheelt het ook weinig qua draagbaarheid natuurlijk...
Draagbaarheid is een combinatie van formaat en gewicht. Een 17" laptop die maar 2 kilo weegt past nog steeds niet in de meeste tassen, of op zo'n klein tafeltje in de trein.

Persoonlijk vind ik 12" eigenlijk al vrij groot. Ik zou liever een 10" touchscreen hebben, en in plaats van een ingebouwde optische drive een grotere batterij.

Aan de inhoud van de bovenstaande tekst kunnen geen rechten worden ontleend, tenzij dit expliciet in dit bericht is verwoord.


  • Digistorm
  • Registratie: Januari 2000
  • Laatst online: 13-02 23:52

Digistorm

ex-demo scener

Ramon de Jesus schreef op dinsdag 08 februari 2005 @ 18:21:
[...]

of je kijkt even verder en je koopt een Vaio B1 serie die je 1300 euro achteruitzet, een 14" scherm heeft, en evenveel weegt als de 12" ibook 8)7
Heb je hem weer met z'n vaio. Is die 8)7 smiley nou echt nodig? Dat ding is groter en duurder dan een 12" iBook. Lekkere vergelijking...

Hier stond achterhaalde informatie…


  • Ramon
  • Registratie: Juli 2000
  • Nu online
komop zeg, ik kan het zelfde zeggen over julle en je apples. De topicstarter is een twijfelaar en dus moet het mogelijk zijn om hier alternatieven aan te dragen imho.

Als dat niet mag en het hier echt alleen maar een apple-propaganda-en-aanbid-subforum is, dan weet ik genoeg en ben ik weg.

Check mijn V&A ads: https://tweakers.net/aanbod/user/9258/


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Johnny schreef op dinsdag 08 februari 2005 @ 23:06:
[...]


Ik denk dat hij bedoeld dat het op allebei niet lekker gaat. :P


[...]
Dat bedoelde ik inderdaad. Al moet ik wel aantekenen dat ik een Radeon als in de iBook desnondanks een stuk hoger heb zitten dan die afschuwelijke low-budget Intel shared-memory chip.

Quake 3 en zelfs Call of Duty of MOHAA zal op een iBook prima draaien... Maar een top games machine zal het nooit worden.

Macbook 2,13 GHz 4GB 120GB SSD


  • Remy
  • Registratie: Februari 2002
  • Laatst online: 27-12-2025

Remy

I usually get 100% accuracy

Heren, zouden jullie dit topic niet willen verpesten met ononderbouwde flames dan wel gerant op het Apple dan wel Windows-platform? Dat is zooo kinderachtig :)

Geef je een tip of mening, onderbouw die dan ook op de juiste manier, anders is het grove verspilling van bandbreedte en denkkracht ;)

LinkedIn
Instagram


  • 3mph
  • Registratie: November 2003
  • Laatst online: 17-08-2024
Ik zie hier idd alleen maar PC users die naar MAC overstappen... zijn er ook MAC users die naar PC zijn overgestapt?
Een hoop zinvolle dingen iig...

Verwijderd

3mph schreef op woensdag 09 februari 2005 @ 14:16:
Ik zie hier idd alleen maar PC users die naar MAC overstappen... zijn er ook MAC users die naar PC zijn overgestapt?
Een hoop zinvolle dingen iig...
Ik denk dat die gebruikers er een stuk minder zullen zijn, de redenen om over te stappen van Mac -> PC zijn stukken geslankt sinds veel programma's geport zijn naar Mac (dit was denk ik het grootste argument om geen mac te gebruiken). In mijn ogen is een PC op dit moment alleen nog nodig als je een .NET/win32 ontwikkelaar bent, of een gamefreak.

Zoals iemand anders al een keer aanhaalde, is het voor 97% van de gebruikers mogelijk om aan Mac genoeg te hebben... maar wordt PC+Windows nog steeds door hun strot gedouwd, vaak vanuit hun directe omgeving, werk, etc.

[ Voor 24% gewijzigd door Verwijderd op 09-02-2005 14:21 ]


  • NielZ
  • Registratie: Maart 2002
  • Laatst online: 06-10-2024

NielZ

Casual

3mph schreef op woensdag 09 februari 2005 @ 14:16:
Ik zie hier idd alleen maar PC users die naar MAC overstappen... zijn er ook MAC users die naar PC zijn overgestapt?
Jep, die zijn er. Ik bijvoorbeeld. :+

Al vanaf m'n tweede gebruik ik Mac's. M'n vader zat in de grafische wereld, en we hadden thuis een Mac+ staan. Daar deed ik altijd Memory (voor de kenners: met die boef en de agent) op. Later een LC475, in '99 een Blueberry iMac en in 2000 heb ik m'n eerste Ruby iMac gekocht. O+
Ondertussen kwam ik te werken bij een computerzaak. Een vriend van mij werkte er, ik was toch op zoek naar werk en het leek me wel geinig. Thuis bleef ik actief me iMac gebruiken, op me werk verkocht ik dus windozen. En toen is het misgegaan. Waarschijnlijk heb ik mezelf geïndoctrineerd oid door télkens te blijven zeggen "ja ja mevrouwtje, Windows XP is echt een top OS, dit is een supercomputertje! :*) ". In Mei 2003 kocht ik mijn eerste PC. Vol gestuntel begon ik aan XP; veel ervaring had ik niet. ;)
Inmiddels zijn we bijna twee jaar verder, en is mijn nieuwe 12" PowerBook onderweg. De mooie harware maar vooral het mooie OS zijn zo vele malen beter dan XP. Nog stééds zitten er dingen in XP die ik niet begrijp, of functies die ik niet kan vinden. Het werkt gewoon niet intuïtief; iets wat OS X wél heeft. Vooral dat laatste is iets wat op papier lastig is uit te leggen, maar in de praktijk maar al te waar blijkt te zijn. :)

Zie ook cemackor in "Waarom ben jij overgestapt van Windows n..."

Mage Powerrr \o/ | Voor je 't weet trekken ze de stekker eruit...


  • 3mph
  • Registratie: November 2003
  • Laatst online: 17-08-2024
relax :)

Een groot struikelblok voor een hoop PC users is denk ik toch de prijs van een MAC in vergelijking met die van een PC of Laptop (en wat je voor die prijs hebt).
Ik zwerf al weken hier rond omdat ik een laptop of Powerbook wil aanschaffen.. Ik heb weleens op een MAC gewerkt (8 jaar geleden ofzo) en toen merkte ik dat er weinig software die ik met mijn windows gebruikte op de MAC leverbaar was..
Ik lees ook geruchten over de Porwerbook G5 in het 2e kwartaal.. dusja... dat maakt het allemaal niet makkelijker :D

  • Peentje
  • Registratie: November 2001
  • Laatst online: 09:23

Peentje

MacOS/Windows/Linux don't care

pff dat gezwets over die g5. eerst kwam die januari, nu waren ze er zeker van dattie februari kwam, nu hebben ze 2 of 3 weken geleden de pb geupdate, gewoon een g4tje (ofdat het nog niet goed genoeg is) dat ding kan er weer bijna een jaar tegenaan, en dan heb je een heel klein kansje dattie op de macworld van 2006 in San Francisco, aangekondigt word (let wel aangekondigt).

dat ding is te heet en vreet teveel stroom.

er zijn hier trouwens al heel wat meer draadjes over. check search.

  • dion_b
  • Registratie: September 2000
  • Laatst online: 10:39

dion_b

Moderator Harde Waren

say Baah

Ramon de Jesus schreef op dinsdag 08 februari 2005 @ 22:50:
[...]
wat een onzin-argument, op die ibook kan je lekker gamen zeker?
Beter dan op een willekeurige notebook met integrated VGA :z

Bij integrated VGA deelt de CPU de geheugenbus met de GPU die in het chipset geintegreerd zit. Doorgaans is er al op een laptop verdraaid weinig geheugenbandbreedte voorhanden, maar zo moet je het bij games, die zowel CPU als GPU intensief zijn, doormidden delen. En dat castreert beide onderdelen gruwelijk :o

De iBooks hebben losse VGA chips (de nieuwe G4 hebben een Radeon mobility 9200) met hun eigen geheugen. Dat laatste is het belangrijkste.

Kijk voor de lol eens naar reviews van integrated VGA vs. losse VGA chips/kaarten. De beste integrated VGA (de nForce2 core) haalt het lang niet bij de traagste losse opties (een losse Geforce2MX-200 ofzo), laat staan bij een fatsoenlijk geclockte Radeon Mobility 9200.

Dat hardwarematig verschil (dat net zo opgaat voor PC vs. PC als PC vs Mac) is allerminst een onzinargument. En wat software betreft - er zijn zeker games voor de Mac ;)

Oslik blyat! Oslik!


  • Ramon
  • Registratie: Juli 2000
  • Nu online
dion_b schreef op vrijdag 11 februari 2005 @ 02:27:
[...]

Beter dan op een willekeurige notebook met integrated VGA :z
Ik heb niet beweerd dat je op een integrated VGA laptop goed kan gamen hoor.
Bij integrated VGA deelt de CPU de geheugenbus met de GPU die in het chipset geintegreerd zit. Doorgaans is er al op een laptop verdraaid weinig geheugenbandbreedte voorhanden, maar zo moet je het bij games, die zowel CPU als GPU intensief zijn, doormidden delen. En dat castreert beide onderdelen gruwelijk :o
joh...
De iBooks hebben losse VGA chips (de nieuwe G4 hebben een Radeon mobility 9200) met hun eigen geheugen. Dat laatste is het belangrijkste.
In dit geval niet.
Kijk voor de lol eens naar reviews van integrated VGA vs. losse VGA chips/kaarten. De beste integrated VGA (de nForce2 core) haalt het lang niet bij de traagste losse opties (een losse Geforce2MX-200 ofzo), laat staan bij een fatsoenlijk geclockte Radeon Mobility 9200.
dat geloof ik best, dat heb ik ook niet ontkent?
Dat hardwarematig verschil (dat net zo opgaat voor PC vs. PC als PC vs Mac) is allerminst een onzinargument.
Ik had het dus ook niet puur over het hardwareverschil, maar ik dacht dat je dat wel doorhad ;)
En wat software betreft - er zijn zeker games voor de Mac ;)
Games zijn er idd, maar ze komen later uit, liggen vaak niet in de gewone spelletjes winkels. Ze zijn dus (legaal en illegaal) moeilijker aan te komen.

Kortom, als je echt spelletjes wil spelen dan moet je en geen Apple Notebook en geen notebook met integrated VGA gebruiken.

Check mijn V&A ads: https://tweakers.net/aanbod/user/9258/


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Ramon de Jesus schreef op vrijdag 11 februari 2005 @ 08:28:
[...]

Games zijn er idd, maar ze komen later uit, liggen vaak niet in de gewone spelletjes winkels. Ze zijn dus (legaal en illegaal) moeilijker aan te komen.
Voor wat betreft legaal heb je een punt. Voor wat betreft illegaal absoluut niet. En voor een sporadische games-speler die af en toe een keer The Sims, Quake 3, Call of Duty, MOHAA of Warcraft 3(Want die zijn er allemaal voor de Mac, en nog veel meer!) of dergelijke speelt heb je met een iBook een machine waar je nog best mee kunt spelen(omdat Apple in ieder geval echte videokaarten inbouwt), terwijl met willekeurig welke computer met geintegreerde graphics dat absoluut niet het geval is.

Een iBook zal nooit een echte gamesmachine worden; maar dat geldt eigenlijk voor vrijwel alle laptops.

[ Voor 4% gewijzigd door Luke_msx op 11-02-2005 09:11 ]

Macbook 2,13 GHz 4GB 120GB SSD


  • Nitai
  • Registratie: November 1999
  • Laatst online: 13-02 00:08

Nitai

Live the life you love.

Stel als ze ooit een gamesmachine zouden uitbrengen....dan zou dat zeker wel aanslaan denk ik. Maar de spellen die jalumsx hierboven noemt zijn vrij populaire spellen en goed speelbaar naar wat ik heb gezien.

“Believe and act as if it were impossible to fail.” —Charles Kettering


  • Niakmo
  • Registratie: Juni 2001
  • Laatst online: 10-02-2024
Niemand heeft nog echte benchmarks gepost, dus hier zijn er een paar die ik even snel kon vinden met google

http://www.barefeats.com/pentium4.html
De G5 2.5Ghz verslaat de 2.4xeon

http://www.digitalvideoed.../features/cw_macvspc2.htm
een wat oudere test waar de G4 1ghz dik word ingemaakt.

http://www.spymac.com/forums/showthread.php?threadid=150543
een nofi benchmark :) , maar misschien wel handig.

dat is voorlopig wat ik kon vinden zal later wel meer zoeken

  • MacWolf
  • Registratie: Januari 2004
  • Laatst online: 06-09-2024
De benchmark discussie is een eeuwige discussie en naar mijn mening compleet zinloos en wel om de volgende redenen:
* Benchmarks kunnen worden bepaald vanuit verschillende perspectieven. De éne benchmark wordt bepaald aan de hand van de compilatiesnelheid en de andere benchmark wordt bepaald door het aantal fps. Er is niet één benchmark waarmee de algehele prestatie van het systeem (hard- en software) is te bepalen.
* De éne benchmark gaat uit van een zo optimaal mogelijke situatie voor een specifieke processor (optimale code, etc...) de andere benchmark gaat uit van een standaard situatie voor alle processoren, waardoor men kan argumenteren dat de éne processor minder presteert als de andere, puur omdat de situatie niet zo optimaal mogelijk is voor de architectuur.
* Processoren maken gebruik van vector eenheden om code te versnellen. De vectoreenheden verschillen aanzienlijk tussen de PowerPC en x86 processoren. Sommige mensen vinden tests waarbij vectoreenheden ook worden meegenomen dan ook niet objectief en zijn van mening dat tests uitgevoerd mogen worden, zolang dergelijke eenheden niet worden meegenomen bij berekeningen.

Microsoft Windows: A thirty-two bit extension and graphical shell to a sixteen-bit patch to an eight-bit operating system originally coded for a four-bit microprocessor which was written by a two-bit company that can't stand one bit of competition.


  • Niakmo
  • Registratie: Juni 2001
  • Laatst online: 10-02-2024
Maar als je een programma neemt dat zowel op een mac als op een pc draait neemt, en een en de zelde gecompliceerde bewerking laat uitvoeren op de mac en pc dan heb je de een aardige indicatie van hoe de twee systemen verschillen, en weet je meteen of de powerbook van 1500 euro de zelfde dingen in de zelfde tijd of beter (:)) kan uitvoeren dan een pc van 1500 euro.

Natuurlijk moet je bij PC vs Mac benchmarks niet pure processor benchmarks doen maar gewoon kijken hoe programma's lopen, want daar heeft een eventule overstapper wat aan.

  • bolleh
  • Registratie: Juli 2001
  • Laatst online: 14-02 21:14
MacWolf schreef op zaterdag 12 februari 2005 @ 03:07:
De benchmark discussie is een eeuwige discussie en naar mijn mening compleet zinloos en wel om de volgende redenen:
niet helemaal waar. ik ben het ermee eens dat het zeer moeilijk benchmarken/vergelijken is maar een goede benchmark komt daar aardig overheen.

quake 3 bijvoorbeeld. noem me gek maar imho nog steeds 1 van de beste benchmarks out there. ik heb 2 jaar terug een soort van onderzoek ernaar gedaan met een 7 compleet verschillende systemen en de resultaten waren verrassend. maakt niet uit wat je veranderde in je pc quake 3 werd er sneller door.

harde schijf? snellere laadtijden. snellere proc? meer fps. meer/sneller geheugen? snellere laadtijd+meer fps. snellere videokaart? meer fps.

en het leuke was dat dit op elke resolutie naar voren kwam, op sommige enkel wat beter.

dan ga ik er wel vanuit dat de mac versie van quake 3 enigsinds goed is geprogrammeerd maar dat zal vast wel :)

  • ErikRo
  • Registratie: Juni 2001
  • Laatst online: 26-12-2025
zirus schreef op zaterdag 12 februari 2005 @ 08:16:
Maar als je een programma neemt dat zowel op een mac als op een pc draait neemt, en een en de zelde gecompliceerde bewerking laat uitvoeren op de mac en pc dan heb je de een aardige indicatie van hoe de twee systemen verschillen, en weet je meteen of de powerbook van 1500 euro de zelfde dingen in de zelfde tijd of beter (:)) kan uitvoeren dan een pc van 1500 euro.
Dan heb ik een leuke voor je. Speel een wmv filmpje af om de pc met mediaplayer en op de mac met mediaplayer. Driemaal reden met er met grote overmacht wint.
Snap je waar ik heen wil ;)

ps dit geldt ook omgekeerd met een mov file dan wint demac vast met grote overmacht.

[ Voor 7% gewijzigd door ErikRo op 12-02-2005 13:03 ]

"I don't have any solution but I certainly admire the problem." -- Ashleigh Brilliant


  • dion_b
  • Registratie: September 2000
  • Laatst online: 10:39

dion_b

Moderator Harde Waren

say Baah

ErikRo schreef op zaterdag 12 februari 2005 @ 13:03:
[...]

Dan heb ik een leuke voor je. Speel een wmv filmpje af om de pc met mediaplayer en op de mac met mediaplayer. Driemaal reden met er met grote overmacht wint.
Snap je waar ik heen wil ;)

ps dit geldt ook omgekeerd met een mov file dan wint demac vast met grote overmacht.
Een willekeurige Mac of PC van de laatste 5 jaar kan met gemak zowat iedere film afspelen, dus dit imbalans is niet echt relevant :z

Neem een betere:
Doe iets zwaars met Photoshop of Premiere ofzo. Dat zijn zinnige apps die regelmatig op beide platforms gebruikt worden. Of idd een spel als Sims2.

Natuurlijk zijn er platform-specifieke voordelen, maar die verschillen lijken steeds kleiner te worden :)

Oslik blyat! Oslik!


  • Atari 800xl
  • Registratie: Februari 2005
  • Laatst online: 11-09-2022
Modbreak:Mods hebben ook email, loos gaan lopen ranten lost bar weinig op

[ Voor 88% gewijzigd door moto-moi op 12-02-2005 22:16 ]


  • ErikRo
  • Registratie: Juni 2001
  • Laatst online: 26-12-2025
dion_b schreef op zaterdag 12 februari 2005 @ 21:20:
[...]
Een willekeurige Mac of PC van de laatste 5 jaar kan met gemak zowat iedere film afspelen, dus dit imbalans is niet echt relevant :z
Goed in dat geval probeer eens even een High Definition clips (1080I en 720P) van de microsoft site af te spelen op je mac en vertel me hoe geweldig dit afspeelt. Dan praten we daarna verder.

"I don't have any solution but I certainly admire the problem." -- Ashleigh Brilliant


Verwijderd

ErikRo schreef op zaterdag 12 februari 2005 @ 23:16:
[...]

Goed in dat geval probeer eens even een High Definition clips (1080I en 720P) van de microsoft site af te spelen op je mac en vertel me hoe geweldig dit afspeelt. Dan praten we daarna verder.
Ik wi lhet wel afspelen maar het is een .exe bestand wat in vind :? Daarbij komt het ook nog dat het formaat WM9 is en de Media Player van MS voor OSX gewoon een slecht programma is dat niet eens aan de richtlijnen van Apple OSX voldoet (sluit je het scherm, sluit de applicatie bijv).

Dat ik deze niet krijg afgespeeld ligt niet aan Apple niet aan mijn powerbook niet aan OSX, maar aan Microsoft.

Ik heb nu deze site gevonden zonder een .exe bestand en in Windows Media Player doet deze het zwaar klote!! VLC kan het bestand niet afspelen.

Nu komt het LEUKE!!!! Op die site staat ook een HD Xvid versie van 27mb tov 20mb van de WMV. In Quicktime doet deze het veel beter dan de WMV in Windows Media Player for OSX. Dan komt nu VLC daarin draait de Xvid het PERFECT. Dus je argumenten zijn gewoon klote.

Beide filmbestanden waren 720P ben nu op zoek na een 1080I. WMV kijk ik niet meer heen gewoon omdat het een formaat is dat het minst compatible is en ik al weet dat het niet goed werkt op een non-windowsbak.

[edit1]
Bonus: Draai eens die HD clips van op dezelfde pc in een non-windows OS, loopt ook voor geen meter, rara hoe zou dat komen 8)7

[ Voor 5% gewijzigd door Verwijderd op 13-02-2005 00:17 ]


  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

ErikRo schreef op zaterdag 12 februari 2005 @ 23:16:
[...]

Goed in dat geval probeer eens even een High Definition clips (1080I en 720P) van de microsoft site af te spelen op je mac en vertel me hoe geweldig dit afspeelt. Dan praten we daarna verder.
Dat ligt niet aan de mac maar aan de absurd brakke mediaplayer die microsoft voor de mac maakt. Dat ding gebruikt niet eens video overlays om 't geheel met minder cpu belasting in beeld te krijgen. Hoewel dat geen groot probleem is als je een filmpje hebt van 320x240, is het wel een probleem als je een HD video stream op die manier wilt laten zien.

[ Voor 14% gewijzigd door CyBeR op 13-02-2005 00:14 ]

All my posts are provided as-is. They come with NO WARRANTY at all.


  • ErikRo
  • Registratie: Juni 2001
  • Laatst online: 26-12-2025
Inderdaad ;) dat was dus precies het punt wat ik wilde maken.
Je kan niet zomaar een applicatie vergelijken op beide platforms omdat het op een van beide geoptimaliseerd is of juist niet, dat geeft dus geen eerlijk vergelijkingsmateriaal..

[ Voor 15% gewijzigd door ErikRo op 13-02-2005 00:30 ]

"I don't have any solution but I certainly admire the problem." -- Ashleigh Brilliant


  • dion_b
  • Registratie: September 2000
  • Laatst online: 10:39

dion_b

Moderator Harde Waren

say Baah

ErikRo schreef op zondag 13 februari 2005 @ 00:27:
Inderdaad ;) dat was dus precies het punt wat ik wilde maken.
Je kan niet zomaar een applicatie vergelijken op beide platforms omdat het op een van beide geoptimaliseerd is of juist niet, dat geeft dus geen eerlijk vergelijkingsmateriaal..
Dat kun je best. Het is voor de gebruiker volstrekt oninteressant of een app geoptimaliseerd is voor architectuur X of Y, het gaat erom hoe goed zijn app presteert op X of Y. En dat die twee niet automatisch overeen hoeven te komen is erg belangrijk.

Kijk bijvoorbeeld zuiver binnen de x86 CPUs naar het jaar 2000-2001. AMD had toen de Athlon Thunderbird als high-end CPU, die geen SSE (vector instructies) native ondersteunde, Intel de P4 Willammette die wel SSE had. Als applicaties SSE niet ondersteunden was de snelste Thunderbird vrijwel altijd sneller dan de Willammeette. Maar omgekeerd was niet altijd waar: soms was de brute FPU kracht van de Athlon genoeg om ook in SSE geoptimaliseerde apps (Photoshop...) sneller te zijn dan de P4.

Omdat optimalisatie bij niet bij voorbaat doorslag geeft is het juist wel belangrijk om vergelijkend te benchen, want anders blijf je marketinglui die "geoptimaliseerd voor P4" of "The way it's meant to be played" blaten napraten :o

Alleen moet je dan zinnige dingen pakken, niet obscure architectuur of OS afhankelijke meuk, maar gewoon programma's die normale mensen ook zouden gebruiken. Kijk maar eens naar deze review:

http://www.pcmag.com/article2/0,1759,1274637,00.asp

G5 vs G4 vs P4, allemaal duals, vergeleken in Acrobat, Photoshop, Lightwave en Squeeze (en Final Cut, maar uiteraard dan alleen de Apples).

Dat het gaat om appels, oude appels en hooggeclockte peren is irrelevant, het gaat om real-life apps die zinnig vergeleken worden. En dat kan altijd cross-platform :)

Oslik blyat! Oslik!


  • ErikRo
  • Registratie: Juni 2001
  • Laatst online: 26-12-2025
Dan zou ik als test Par2 willen voorstellen op een gedloade dvd met x aantal missende blokken.
Dat zou voor mij behoorlijk reallife zijn :)

"I don't have any solution but I certainly admire the problem." -- Ashleigh Brilliant


  • Niakmo
  • Registratie: Juni 2001
  • Laatst online: 10-02-2024
ErikRo schreef op zaterdag 12 februari 2005 @ 13:03:
[...]

Dan heb ik een leuke voor je. Speel een wmv filmpje af om de pc met mediaplayer en op de mac met mediaplayer. Driemaal reden met er met grote overmacht wint.
Snap je waar ik heen wil ;)

ps dit geldt ook omgekeerd met een mov file dan wint demac vast met grote overmacht.
Als je wmvjes wilt afspelen koop je geen mac en als je mac vormaten wilt afspelen koop je geen pc. Maar kijk eens naar neutrale bedrijven en formaten, als adobe en divx, dan kan je wel een redelijk goede vergelijking maken.

Verwijderd

ErikRo schreef op zondag 13 februari 2005 @ 01:24:
Dan zou ik als test Par2 willen voorstellen op een gedloade dvd met x aantal missende blokken.
Dat zou voor mij behoorlijk reallife zijn :)
Hangt dat niet meer af van je IO-performance?

Benchmarken kan je denk ik het beste met 2 programma's die hetzelfde doen maar beide zo veel mogelijk geoptimaliseerd zijn voor 1 platform. Dus niet hetzelfde programma. Maar dan zit je nog bij waar de architectuur nu eenmaal goed in is. Bij de distributed.net client bijv haal ik met RC5-72 ongeveer 14 miljoen keys/s en dat met een G4-1.33ghz. In windows op mijn athlon 2600+ haal ik 6,7 miljoen keys/s en dezelfde pc in linux haalt 7,9miljoen keys/s. De stukken lager geklokte G4 wint het dus nogal makkelijk met een verschil van 77%. En met OGR is de athlon weer sneller de G4. Het ligt er puur aan wat je met je pc doet. Video encoderen is een P4 weer zeer moeilijk van de troon te slaan en volgens mij delft de G4 daar het onderspit (Als iemand een snellere encoder voor OSX weet dan ffmpegX zeg het me even ;)).

De topicstarter moet eigenlijk kijken naar de programma's wat er op moeten kunnen draaien. En evt even langs een Apple centre gaan voor een demonstratie. Ook eerst zelf al veel software en leuke tooltjes zoeken voor OSX is wel aan te bevelen. Zo installeerde ik als eerste aMSN om op msn te komen (msn messenger vond ik niets) en als 2de installeerde natuurlijk FireFox en daarna aangezien ik ook een linuxgebruiker ben fink en finkcommander, zodat ik linux sofware op de powerbook kan draaien.
Als je kijkt na de specs van een iBook krijg je veel voor je geld. Voor € 999 euro heb je een G4-1.2ghz Laptop met 30GB schijfje, 256mb geheugen, 54mbps wlan, usb2.0 en een accuduur van 6 uur!!! Die accuduur vindt je bij geen enkele andere laptop terug in die prijsklasse. Het geheugen is magertjes maar daar prop je dan voor 100 euro extra zelf 512mb bij en dan gaat alles heerlijk als je veel applicaties tegelijk gebruikt :) Als je nu een Apple koopt kan je als OSX Tiger uit komt deze gratis krijgen :)

Ikzelf koos voor een powerbook omdat als ik een gewone laptop zou kopen het eerste wat eraf ging windows zou zijn en linux erop gepleurd worden. Ik hou van een unix omgeving en OSX geeft me die en dan nog met een gebruiksvriendelijkheid en veiligheid die beter is dan windows. De enige gewone laptop die ik geschik vond koste iets over de € 2000,- en die had als extra een dvdbrander, meer geheugen, 13.3" scherm en gigabit lan. Maar ik had me die niet gekocht omdat de powerbook 300 euro goedkoper geprijst was, ik een dvdbrander in de athlon 2600+ heb die ik bijna nooit gebruik en geen gigabitlan op het moment bezit en de bedoeling was om draadloos door huis te zwerven met de laptop. Het grotere scherm maakte me niet zo uit, mijn oude laptop had een 11.3" scherm en ik wilde een zo klein mogelijke laptop. Dus 300 euro voor alleen 256mb meer aan geheugen vond ik wat veel. Wat ik niet gebruik betaal ik ook niet voor.

offtopic:
Even terug op mijn vorige post: Op geforceerde gereduceerde snelheid (600mhz?) speelt de powerbook(G4-1.33) nog die HD-720P xvid uit mijn vorige post moeiteloos af. Voor 720P kwaliteit in WMV zegt MS zelf dat je minimaal een 2.4Ghz pc nodig hebt met 64mb videokaart zijn die specs niet iets te hoog, ook al is het Windows Media? Ik bedoel... het moet toch ook met minder mogelijk zijn?


[edit:]
zirus schreef op zondag 13 februari 2005 @ 02:47:
[...]


Als je wmvjes wilt afspelen koop je geen mac en als je mac vormaten wilt afspelen koop je geen pc. Maar kijk eens naar neutrale bedrijven en formaten, als adobe en divx, dan kan je wel een redelijk goede vergelijking maken.
Dus volgens jou moet ik als ik WM-bestanden wil kijken een windowspc aanschaffen, slaat nergens op? Waarom werken die formaten van Apple wel goed op windows? iTunes en Quicktime werken bij mijn weten even goed op OSX als op windows. Ook kan je een iPod op OSX en Windows gebruiken. En een PocketPC gebaseerde PDA alleen op windows zonder speciale 3th party software. In mijn ogen wil microsoft al hun protocollen en producten zo veel mogelijk windows only maken om zo andere platformen incompatible met het 'marktleidende' bedrijf Microsoft te laten lijken.

[ Voor 13% gewijzigd door Verwijderd op 13-02-2005 03:54 ]


  • Niakmo
  • Registratie: Juni 2001
  • Laatst online: 10-02-2024
[...]

Dus volgens jou moet ik als ik WM-bestanden wil kijken een windowspc aanschaffen, slaat nergens op? Waarom werken die formaten van Apple wel goed op windows? iTunes en Quicktime werken bij mijn weten even goed op OSX als op windows. Ook kan je een iPod op OSX en Windows gebruiken. En een PocketPC gebaseerde PDA alleen op windows zonder speciale 3th party software. In mijn ogen wil microsoft al hun protocollen en producten zo veel mogelijk windows only maken om zo andere platformen incompatible met het 'marktleidende' bedrijf Microsoft te laten lijken.
Dat microsoft dat doet heeft hier even niks te maken , mijn punt was dat je bij het vergelijken van Mac en PC door benchmarking niet gebruik moet maken van iets wat speciaal voor het platform is geschreven. Ik heb geen flauw idee of wmv's uberhaupt te gebruiken is onder mac. Mijn punt is dat als je pc en mac wilt vergelijken je dat het best met 3th party software kan doen als adobe dat veel pc klanten heeft maar ook veel Mac gebruikers.

  • 1-0-Ed
  • Registratie: Februari 2002
  • Laatst online: 29-12-2025
Wahaha, goddamn, wat een hype filmpje!

"...so you just saw the 800Mhz G4 beat the 1.8Ghz P4..."

Hoezo gezien? Een slideshow met getallen erin getypt? Mijn kleine teen heeft zojuist in mijn slideshow een P4 3.6Ghz met 500% verslagen... haha

Mooiste vind ik nog wel dat het eerst om een 1.7Ghz gaat en vervolgens de hardware smuck het over 1.8Ghz heeft... tssssk, '...I'm from apple and I'm great...' :D

Gravity sucks...


Verwijderd

Nou dan neem je een Acer 4002WLMI; gaat lang mee...zit nog een redelijk videokaart in (ati9700 64mb) en je kunt er nog een andere hd in flikkeren.
Ik moet zeggen dat de Apple's veel mooier zijn, maar ik denk voor mijzelf niet praktisch genoeg ivm software etc. ;)

  • Nietzman
  • Registratie: April 2000
  • Laatst online: 12-02 10:27

Nietzman

Woei!

1-0-Ed schreef op zondag 13 februari 2005 @ 10:10:
Mooiste vind ik nog wel dat het eerst om een 1.7Ghz gaat en vervolgens de hardware smuck het over 1.8Ghz heeft... tssssk, '...I'm from apple and I'm great...' :D
Heb je ook nog iets zinvols te zeggen of blijft het bij die rant?

Dat filmpje is natuurlijk ook maar een simpele manier om iets ingewikkelds aan een groot publiek uit te leggen.

  • downtime
  • Registratie: Januari 2000
  • Niet online

downtime

Everybody lies

dion_b schreef op woensdag 08 december 2004 @ 02:55:
Een ouderwetse scalar CPU (neem pakweg een 386) voert per kloktik één instructie uit. Een superscalar CPU (bij Intel vanaf de Pentium, hoe het bij 68xx zit weet ik niet, maar PPC is iig superscalar) voert per kloktik meerdere instructies uit.
Geschiedenislesje: Oudere CPU's dan de 386 hadden voor veel instructies zelfs meerdere kloktikken nodig. Soms, als ik me goed herinner, tot 7 kloktikken voor sommige complexe instructies. De complexiteit van de X86 architectuur houdt in dat niet elke instructie er even lang over doet om gedecodeerd en uitgevoerd te worden en ik meen dat de 386 ook maar af en toe meer dan 1 instructie per kloktik haalde.

Mijn toenmalige computer had een ARM processor die 1 van de eerste CPU's was die consequent 1 instructie per kloktik uitvoerde en dat was alleen omdat het een RISC processor was. Het decoderen van instructies bij zo'n CPU kost nauwelijks tijd waardoor RISC CPU's indertijd een voordeel t.o.v. CISC processoren als de X86's hadden. Bovendien kenden de eerste RISC processoren helemaal niet de complexe instructies waarvoor meerdere kloktikken nodig zouden zijn.
Vandaag de dag speelt dat nauwelijks meer omdat CPU's zoveel tegelijk kunnen doen en het decoderen van instructies gewoon parallel aan het uitvoeren ervan gebeurt. Het voordeel van RISC t.o.v. CISC is daardoor grotendeels weggevallen.

Waarschijnlijk is dat ook de reden dat Apple al een paar jaar geen reclame meer maakt waarin de RISC architectuur van de PowerPC processoren vermeld wordt. Het verschil tussen RISC en CISC speelt nauwelijks meer en zou de meeste Apple klanten bovendien niet interesseren.

[ Voor 10% gewijzigd door downtime op 13-02-2005 13:28 ]


  • Peentje
  • Registratie: November 2001
  • Laatst online: 09:23

Peentje

MacOS/Windows/Linux don't care

ja idd aap, als het nergens op gebaseerd was brachten ze het niet uit, en het is echt zo hoe kan het anders dat apple 1.2 gigaherz processors in zijn config stopt terwijl er ap pentiums 4 gigaherz zijn, zal wel betekenen dat die toch wat sneller zijn? (dan die 1.2 gigaherz)

jij kijkt nog steeds als ieder paard (met hele hele grote oogkleppen) recht vooruit en staar je blind op die gigaherzen.

sorry maar dan ben je: "gewoon een beetje dom"

[ Voor 5% gewijzigd door Peentje op 13-02-2005 13:33 ]


Verwijderd

zirus schreef op zondag 13 februari 2005 @ 09:14:
[...]


Dat microsoft dat doet heeft hier even niks te maken , mijn punt was dat je bij het vergelijken van Mac en PC door benchmarking niet gebruik moet maken van iets wat speciaal voor het platform is geschreven. Ik heb geen flauw idee of wmv's uberhaupt te gebruiken is onder mac. Mijn punt is dat als je pc en mac wilt vergelijken je dat het best met 3th party software kan doen als adobe dat veel pc klanten heeft maar ook veel Mac gebruikers.
Dat zeg ik toch ook (ongeveer), 3th party software gebruiken, voor mij part 2 verschillende ontwikkelaars met 1 super geoptimaliseerd voor x86 en de ander voor powerpc. Een programma dat geport moet worden naar een ander platform kan altijd nadelig zijn voor de performance.

Toch blijft het nog steeds een probleem dat de ene architectuur beter is dan de andere in een bepaald gebied, dat blijf je gewoon houden. Een algemene score moet je niet na kijken. Je moet de score verdelen in bijv gebruiksgemak, office, games, videobewerking en server toepassingen en daarop kan je bepalen of je de een mac of een pc wil of het niet uitmaakt. Ik koos dus voor een Mac vooral omdat OSX een unix is met zeer veel gebruiksgemak.

  • dion_b
  • Registratie: September 2000
  • Laatst online: 10:39

dion_b

Moderator Harde Waren

say Baah

/downtime/ schreef op zondag 13 februari 2005 @ 13:25:
[...]

Geschiedenislesje: Oudere CPU's dan de 386 hadden voor veel instructies zelfs meerdere kloktikken nodig. Soms, als ik me goed herinner, tot 7 kloktikken voor sommige complexe instructies. De complexiteit van de X86 architectuur houdt in dat niet elke instructie er even lang over doet om gedecodeerd en uitgevoerd te worden en ik meen dat de 386 ook maar af en toe meer dan 1 instructie per kloktik haalde.
* dion_b voelt zich flink in z'n mier geneukt :+
Maar da's ook nog eens prettig het van de andere kant mee te maken >:)
Mijn toenmalige computer had een ARM processor die 1 van de eerste CPU's was die consequent 1 instructie per kloktik uitvoerde en dat was alleen omdat het een RISC processor was. Het decoderen van instructies bij zo'n CPU kost nauwelijks tijd waardoor RISC CPU's indertijd een voordeel t.o.v. CISC processoren als de X86's hadden. Bovendien kenden de eerste RISC processoren helemaal niet de complexe instructies waarvoor meerdere kloktikken nodig zouden zijn.
Tja, dat blijft natuurlijk het CISC <-> RISC onderscheid, zonder die complexe instructies moet de complexiteit door software (compiler) overgenomen worden ipv de CPU core.
Vandaag de dag speelt dat nauwelijks meer omdat CPU's zoveel tegelijk kunnen doen en het decoderen van instructies gewoon parallel aan het uitvoeren ervan gebeurt. Het voordeel van RISC t.o.v. CISC is daardoor grotendeels weggevallen.
Ook omdat de 'CISC' CPUs tegenwoordig een RISC-achtige core hebben met een interne decoder van de CISC instructies. Extreem-CISC monsters als de Vax KAxxx CPUs zijn ook uitgestorven. En omdat sommie RISC (PA...) ook nogal barok aan het worden zijn. Er is gewoon een redelijk middenweg gevonden dat een mengelmoes is van beiden.
Waarschijnlijk is dat ook de reden dat Apple al een paar jaar geen reclame meer maakt waarin de RISC architectuur van de PowerPC processoren vermeld wordt. Het verschil tussen RISC en CISC speelt nauwelijks meer en zou de meeste Apple klanten bovendien niet interesseren.
Daarom begon ik er ook niet over :z

Het ging mij om verschil scalar <-> superscalar mbt IPC. Het RISC <-> CISC verhaal compliceert dat alleen maar...

De tijd dat het echt uitmaakte was de eerste helft van de jaren '90, denk aan de bombarie waarmee Sun de voordelen van de SPARC tov de 680x0 van de daken schreeuwden. Dat was ook de tijd van de Archimedes, waarnaar je vermoedelijk verwees ;)

Offtopic:
* dion_b zou nog altijd een van de latere Archimedes willen bemachtigen :)

[ Voor 4% gewijzigd door dion_b op 14-02-2005 02:03 ]

Oslik blyat! Oslik!


  • 3mph
  • Registratie: November 2003
  • Laatst online: 17-08-2024
hmm ik volg het allemaal niet meer... gaat boven mijn pet :9

Verwijderd

Ik wil ook graag even inhaken op de CPU-technische discussie...
Ten eerste, over die 386... Die kan NOOIT meer dan 1 instructie per clk halen, omdat ie niet superscalar is. Verder heeft ie al moeite om instructies binnen 1 clk af te werken omdat ie maar een hele beperkte pipeline heeft (ik dacht alleen maar 1 extra stage voor de instructie fetch).
De 486 kan wel instructies binnen 1 clk doen... en de Pentium had dus 2 pipelines (superscalar) en kon dus 2 instructies tegelijk uitvoeren, en dat binnen 1 clk, dus maximaal 2 instructies per clk. De PII/PIII/P4/Athlon zouden in theorie maximaal 3 instructies per clk kunnen halen, ongeveer.
Maar die CPUs werken niet meer volgens de normale superscalar architectuur zoals de Pentium. Bij de Pentium had je 2 pipelines die synchroon liepen... Tegenwoordig heb je zogenaamde 'ports'. Die ports kunnen volstrekt onafhankelijk van elkaar opereren, en maken ook out-of-order executie mogelijk. De PowerPCs werken ook ongeveer op deze manier.

Verder is het IPC-verhaal niet zo heel nuttig, omdat je vergelijkt tussen twee verschillende instructiesets. De PowerPC heeft veel meer registers dan de x86, en de instructies hebben 3 operands ipv 2. In het algemeen kun je dus met minder instructies hetzelfde bereiken. Dus zelfs bij gelijke IPC zou een PPC sneller kunnen zijn (maar je kunt vast ook situaties bedenken waarin het omgekeerde geldt). De complexe instructies van de x86 kun je eigenlijk ook niet meer gebruiken. Zoals al werd opgemerkt, zijn het eigenlijk ook RISC-processors geworden, er zit alleen een soort 'vertalertje' op geschroefd. De eerder genoemde 'ports' zijn in feite RISC-units.
Complexe instructies worden opgebroken in zogenaamde micro-ops... dat zijn zeg maar de instructies van de RISC-units. Hoewel je dus met x86 vaak code in zeer weinig instructies kunt opschrijven, als je de complexe instructies gebruikt, is dit in de praktijk niet sneller, omdat je nog steeds net zoveel micro-ops moet verwerken. Sterker nog, vaak is het langzamer... ten eerste omdat je meestal op meer micro-ops uitkomt dan wanneer je het schrijft met code die 1:1 naar micro-ops vertaalt... en ten tweede omdat het decoderen van complexe instructies vaak langer duurt dan de 1:1 instructies. Dus eigenlijk moet je moderne x86 processors opvatten als RISC-processors, en alleen RISC-achtige code schrijven, en de complexe instructies mijden (als we nog lang met x86 doorgaan, vermoed ik dat uiteindelijk de complexe instructies uit de hardware verdwijnen, en door software-emulatie vervangen worden... Dit is met oa de IBM POWER-architectuur en de Motorola 68060 ook gedaan. Het voordeel is dat de hardware simpeler wordt, en dus sneller).

En natuurlijk zijn de mensen van het Apple-filmpje zo slim geweest om beide pipelines op dezelfde snelheid te laten werken. Dat demonstreert dus wel leuk waarom de kortere pipeline op dezelfde snelheid sneller klaar is... maar in werkelijkheid is de langere pipeline natuurlijk ontwikkeld om de CPU op een hogere snelheid te laten werken, en dan kan het er best wel eens heel anders uit zien. Zoals je kunt zien in het filmpje, zijn (fout voorspelde) branches de reden waarom er verschil optreedt... bij veel branches wint een korte pipeline dus makkelijk... bij weinig of geen branches wint de lange pipeline.
En het leuke aan programmeren is dat je alles op 483928430232 verschillende manieren kunt implementeren. Het is dus heel goed mogelijk om programma's te herschrijven met minder of zelfs geen branches. Dat is ook een beetje de makke van de P4. Op zich doet de P4 qua IPC niet veel onder voor een Athlon. Maar hij is dus niet goed met branches... Met audio/video encoding en dergelijke zie je dat dus... Daar zitten sowieso niet zo veel branches in, en de code is vaak geoptimaliseerd voor P4, en dan is er geen houden aan. Maar een hoop software is nog niet herschreven voor de P4, en met het uitvoeren van 'oude code' is de P4 gewoon zwak (ook met x87 code trouwens).

Ik vind het zelf wel jammer dat de P4 niet helemaal uit de verf is gekomen... Uit puur technisch oogpunt vind ik de architectuur erg indrukwekkend en vooruitstrevend. Maar ik weet niet of we ooit gaan zien dat alle software puur voor P4 geoptimaliseerd wordt... In dat geval blijft Intel compleet afhankelijk van het opschalen van de kloksnelheid, ter compensatie van de zwakheden van de P4, in plaats van dat de software die zwakheden uit de weg gaat.
Ik zou zeggen dat de P4 'in theorie' de beste CPU is... maar in de praktijk dus (nog?) niet.

Om terug te komen op de G4/G5... die hebben die zwakheden dus niet... en dat komt voor een groot deel doordat de instructieset veel moderner is. Dat trekt mij aan de PPC-architectuur. Het is heel elegant, en erg efficient. Iets dat een x86 nooit kan worden.

[ Voor 17% gewijzigd door Verwijderd op 14-02-2005 02:30 ]


  • bolleh
  • Registratie: Juli 2001
  • Laatst online: 14-02 21:14
Verwijderd schreef op maandag 14 februari 2005 @ 02:22:
Ik wil ook graag even inhaken op de CPU-technische discussie...
Ten eerste, over die 386... Die kan NOOIT meer dan 1 instructie per clk halen, omdat ie niet superscalar is. Verder heeft ie al moeite om instructies binnen 1 clk af te werken omdat ie maar een hele beperkte pipeline heeft (ik dacht alleen maar 1 extra stage voor de instructie fetch).
De 486 kan wel instructies binnen 1 clk doen... en de Pentium had dus 2 pipelines (superscalar) en kon dus 2 instructies tegelijk uitvoeren, en dat binnen 1 clk, dus maximaal 2 instructies per clk. De PII/PIII/P4/Athlon zouden in theorie maximaal 3 instructies per clk kunnen halen, ongeveer.
Maar die CPUs werken niet meer volgens de normale superscalar architectuur zoals de Pentium. Bij de Pentium had je 2 pipelines die synchroon liepen... Tegenwoordig heb je zogenaamde 'ports'. Die ports kunnen volstrekt onafhankelijk van elkaar opereren, en maken ook out-of-order executie mogelijk. De PowerPCs werken ook ongeveer op deze manier.

Verder is het IPC-verhaal niet zo heel nuttig, omdat je vergelijkt tussen twee verschillende instructiesets. De PowerPC heeft veel meer registers dan de x86, en de instructies hebben 3 operands ipv 2. In het algemeen kun je dus met minder instructies hetzelfde bereiken. Dus zelfs bij gelijke IPC zou een PPC sneller kunnen zijn (maar je kunt vast ook situaties bedenken waarin het omgekeerde geldt). De complexe instructies van de x86 kun je eigenlijk ook niet meer gebruiken. Zoals al werd opgemerkt, zijn het eigenlijk ook RISC-processors geworden, er zit alleen een soort 'vertalertje' op geschroefd. De eerder genoemde 'ports' zijn in feite RISC-units.
Complexe instructies worden opgebroken in zogenaamde micro-ops... dat zijn zeg maar de instructies van de RISC-units. Hoewel je dus met x86 vaak code in zeer weinig instructies kunt opschrijven, als je de complexe instructies gebruikt, is dit in de praktijk niet sneller, omdat je nog steeds net zoveel micro-ops moet verwerken. Sterker nog, vaak is het langzamer... ten eerste omdat je meestal op meer micro-ops uitkomt dan wanneer je het schrijft met code die 1:1 naar micro-ops vertaalt... en ten tweede omdat het decoderen van complexe instructies vaak langer duurt dan de 1:1 instructies. Dus eigenlijk moet je moderne x86 processors opvatten als RISC-processors, en alleen RISC-achtige code schrijven, en de complexe instructies mijden (als we nog lang met x86 doorgaan, vermoed ik dat uiteindelijk de complexe instructies uit de hardware verdwijnen, en door software-emulatie vervangen worden... Dit is met oa de IBM POWER-architectuur en de Motorola 68060 ook gedaan. Het voordeel is dat de hardware simpeler wordt, en dus sneller).

En natuurlijk zijn de mensen van het Apple-filmpje zo slim geweest om beide pipelines op dezelfde snelheid te laten werken. Dat demonstreert dus wel leuk waarom de kortere pipeline op dezelfde snelheid sneller klaar is... maar in werkelijkheid is de langere pipeline natuurlijk ontwikkeld om de CPU op een hogere snelheid te laten werken, en dan kan het er best wel eens heel anders uit zien. Zoals je kunt zien in het filmpje, zijn (fout voorspelde) branches de reden waarom er verschil optreedt... bij veel branches wint een korte pipeline dus makkelijk... bij weinig of geen branches wint de lange pipeline.
En het leuke aan programmeren is dat je alles op 483928430232 verschillende manieren kunt implementeren. Het is dus heel goed mogelijk om programma's te herschrijven met minder of zelfs geen branches. Dat is ook een beetje de makke van de P4. Op zich doet de P4 qua IPC niet veel onder voor een Athlon. Maar hij is dus niet goed met branches... Met audio/video encoding en dergelijke zie je dat dus... Daar zitten sowieso niet zo veel branches in, en de code is vaak geoptimaliseerd voor P4, en dan is er geen houden aan. Maar een hoop software is nog niet herschreven voor de P4, en met het uitvoeren van 'oude code' is de P4 gewoon zwak (ook met x87 code trouwens).

Ik vind het zelf wel jammer dat de P4 niet helemaal uit de verf is gekomen... Uit puur technisch oogpunt vind ik de architectuur erg indrukwekkend en vooruitstrevend. Maar ik weet niet of we ooit gaan zien dat alle software puur voor P4 geoptimaliseerd wordt... In dat geval blijft Intel compleet afhankelijk van het opschalen van de kloksnelheid, ter compensatie van de zwakheden van de P4, in plaats van dat de software die zwakheden uit de weg gaat.
Ik zou zeggen dat de P4 'in theorie' de beste CPU is... maar in de praktijk dus (nog?) niet.

Om terug te komen op de G4/G5... die hebben die zwakheden dus niet... en dat komt voor een groot deel doordat de instructieset veel moderner is. Dat trekt mij aan de PPC-architectuur. Het is heel elegant, en erg efficient. Iets dat een x86 nooit kan worden.
je verhaal van optimaliseren klopt wel een beetje. en dat is een beetje de makke van intel.

ze hebben goede ideeen maar een hoop werk moet opnieuw gedaan worden. dit betekent echter niet dat het daarom minder goed is. imho is de IA-64/Itanium de beste cpu die de laatste paar jaar is ontworpen. probleem is wel weer dat een hoop software overgezet moet worden en dat gaat niet 1-2-3 helaas. amd springt daar slim op in met zn x86-64 etc. maar je kan de x86 architectuur niet blijven doorontwikkelen. dat heeft intel goed voorzien, nu is het imho wachten op het moment dat x86 gedag wordt gezegd.

om sneller te gaan moet je soms helemaal opnieuw beginnen. zeker als je beseft dat de basis van de huidige processors gewoon al 15-20 jaar oud is. je kan nou eenmaal niet continue door blijven gaan

Verwijderd

bolleh schreef op maandag 14 februari 2005 @ 02:36:
[...]

je verhaal van optimaliseren klopt wel een beetje. en dat is een beetje de makke van intel.
Pfft... typ ik zo'n heel verhaal, en dan 'klopt het wel een beetje' :)

Maar ik wou nog even toevoegen dat, ironisch genoeg, de Pentium Pro (en dus later PII/PIII en P-M) juist ontworpen was om 'slechte' code goed te laten lopen.
Het probleem was namelijk dat de Pentium dus wel die 2 instructies per clk kon doen... maar dat kon alleen als die 2 instructies niet van elkaar afhankelijk waren.. omdat de pipelines strict synchroon werkten.
Omdat er bij de meeste code geen rekening mee was gehouden (voor 386/486 bestond dit 'probleem' nog helemaal niet), en omdat het lastig bleek om compilers te maken die echt efficiente code konden genereren voor de Pentium, had Intel er dus voor gekozen om dan de processor zelf maar de code te laten uitvoeren in een (redelijk) optimale volgorde... de zogenaamde out-of-order execution dus.
ze hebben goede ideeen maar een hoop werk moet opnieuw gedaan worden. dit betekent echter niet dat het daarom minder goed is. imho is de IA-64/Itanium de beste cpu die de laatste paar jaar is ontworpen. probleem is wel weer dat een hoop software overgezet moet worden en dat gaat niet 1-2-3 helaas. amd springt daar slim op in met zn x86-64 etc. maar je kan de x86 architectuur niet blijven doorontwikkelen. dat heeft intel goed voorzien, nu is het imho wachten op het moment dat x86 gedag wordt gezegd.
Er is hulp uit een andere hoek: .NET/Java.
Met statisch compileren heb je dus twee problemen: ten eerste draait de binary alleen op de instructieset waarvoor ie gecompiled is... en ten tweede is de binary alleen geoptimaliseerd voor de processor waarvoor ie gecompiled is.

Met .NET/Java compileer je dus pas op de machine waarop de code moet draaien. De instructieset is dan niet meer van belang, als er maar een compiler (virtual machine dus) geinstalleerd is. En als je toch gaat compilen, kun je meteen optimaliseren voor de juiste processor.
Het had mooi geweest als .NET nu al redelijk geaccepteerd was. Dan zou alle .NET software meteen draaien op x86, x86-64 en Itanium (en alle andere systemen waarvoor .NET beschikbaar is). Nu wordt de Itanium daar dus de dupe van. Omdat die met x86-compatibiliteit niet kan meekomen met de x86-64, en omdat er nauwelijks native software is, zal ie nooit populair worden, hoe goed de CPU ook is.
En de gebruiker wordt er ook min of meer de dupe van, omdat we nu van alle software 32 bit en 64 bit versies gaan krijgen, wat allemaal onnodige verwarring met zich meebrengt.

Java heb ik al afgeschreven, dat heeft het niet waar kunnen maken, mede door wanbeleid van Sun, als je het mij vraagt (dat gezeur over de MS JVM bijvoorbeeld was het stomste wat ze konden doen... geen standaard Java-ondersteuning in Windows is natuurlijk dodelijk voor het Java platform geweest).
Ik heb er wel vertrouwen in dat Microsoft .NET wel aan de man weet te brengen (niet goedschiks, dan wel kwaadschiks). En misschien krijgen we dan eindelijk een toekomst waarin we vrij onze CPU kunnen kiezen, zonder daarbij na te hoeven denken over het software-aanbod.

Het lijkt me ook wel ideaal als die CPUs eenmaal vrij te kiezen zijn... Dan kunnen er verschillende CPUs ontwikkeld worden, die geoptimaliseerd zijn voor bepaalde taken (media-encoding, servers, etc), zonder dat daarbij concessies aan het ontwerp gedaan hoeven worden door die vervelende x86 instructieset.

In feite is de videokaart-industrie wat dat betreft ver vooruit... Sinds de eeste programmeerbare shaders, hebben ze een dynamische compile-strategie aangehouden. Je programmeert de shaders in een universele meta-taal, en de driver is verantwoordelijk voor het compilen naar de daadwerkelijke hardware. De fabrikant is hier dus vrij om z'n eigen instructieset te maken die ideaal is voor de hardware. En de gebruiker merkt er niets van of hij nou een ATi of een NVIDIA kaart gebruikt... Het compilen en optimaliseren van de shaders is compleet transparant... de gebruiker merkt er niets van, en de software werkt prima.

  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 03:01:
[...]
En misschien krijgen we dan eindelijk een toekomst waarin we vrij onze CPU kunnen kiezen, zonder daarbij na te hoeven denken over het software-aanbod.

Het lijkt me ook wel ideaal als die CPUs eenmaal vrij te kiezen zijn... Dan kunnen er verschillende CPUs ontwikkeld worden, die geoptimaliseerd zijn voor bepaalde taken (media-encoding, servers, etc), zonder dat daarbij concessies aan het ontwerp gedaan hoeven worden door die vervelende x86 instructieset.
Tja, als dat moet afhangen van .NET en Microsoft dan bedank ik graag voor dit zogenaamde gemak. Om het nog maar niet te hebben over de performance nadelen van een (eventueel veredeld) interpreter systeem...

En om de relatieve mislukking van Java te wijten aan Sun is ook een beetje flauw, omdat Microsoft zoals zovaak de standaard naar eigen hand probeerde te zetten. En Microsoft standaarden zijn per definitie beperkend voor anderen. Wat voor bezwaar was er nu voor Microsoft om gewoon de Sun Java machine mee te leveren, behalve dat het niet hun eigen product was?

[ Voor 19% gewijzigd door Luke_msx op 14-02-2005 08:42 ]

Macbook 2,13 GHz 4GB 120GB SSD


  • bolleh
  • Registratie: Juli 2001
  • Laatst online: 14-02 21:14
Verwijderd schreef op maandag 14 februari 2005 @ 03:01:
In feite is de videokaart-industrie wat dat betreft ver vooruit... Sinds de eeste programmeerbare shaders, hebben ze een dynamische compile-strategie aangehouden. Je programmeert de shaders in een universele meta-taal, en de driver is verantwoordelijk voor het compilen naar de daadwerkelijke hardware. De fabrikant is hier dus vrij om z'n eigen instructieset te maken die ideaal is voor de hardware. En de gebruiker merkt er niets van of hij nou een ATi of een NVIDIA kaart gebruikt... Het compilen en optimaliseren van de shaders is compleet transparant... de gebruiker merkt er niets van, en de software werkt prima.
mwoah, vergeet dan niet de fouten die zij ook hebben gemaakt, ati en nvidia dan. door hun eigen instructies te maken die weer niet compatible zijn met de concurrent maar helaas niet gebruikt worden. maarja videokaarten worden ook vaak in een strict direct X plan ontworpen, ze doen er alles voor om als eerste direct X 10 compatible te zijn, alles te ondersteunen.

probleem is dan wel dat je het gevaar loopt dat je de vooruitgang remt. de ontwerpers hebben immers niet echte vrijheid en dat kan op den duur nadelig zijn voor de snelheid

Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 08:39:
[...]


Tja, als dat moet afhangen van .NET en Microsoft dan bedank ik graag voor dit zogenaamde gemak. Om het nog maar niet te hebben over de performance nadelen van een (eventueel veredeld) interpreter systeem...
Hier word ik toch zo moe van he...
Waarom denken mensen nog steeds dat Java/.NET etc interpreters zijn?
Waarom wordt het altijd met emulatie geassocieerd, en emulatie met interpreters, en interpreters met slechte performance?
Alsjeblieft zeg... Interpreters, dat is jaren-70-technologie. We zijn al veel en veel verder.
Ik wil dan altijd graag naar het HP Dynamo project verwijzen. Dat is een PA-RISC systeem dat zichzelf 'emuleert' dmv een dynamische compiler. Ze halen daarmee tot 25% performance-winst ten opzichte van de beste statische compilers voor PA-RISC.
Een dynamische compiler voor .NET of Java is niet veel anders, dus het is heel goed mogelijk om daar ook snellere code te genereren dan statische compileres dat kunnen. Er zijn zelfs al benchmarks te vinden van Java die dat in sommige gevallen ook doen.
En om de relatieve mislukking van Java te wijten aan Sun is ook een beetje flauw, omdat Microsoft zoals zovaak de standaard naar eigen hand probeerde te zetten. En Microsoft standaarden zijn per definitie beperkend voor anderen. Wat voor bezwaar was er nu voor Microsoft om gewoon de Sun Java machine mee te leveren, behalve dat het niet hun eigen product was?
Zeker alleen van horen zeggen? Ik heb zelf jarenlang Java ontwikkeld, en ik ben op een bugje hier en daar (dat later gefixt was) nooit iets tegengekomen dat niet op de MS JVM werkt, en wel op de Sun JVM... Dus voor zover ik weet, is de MS JVM gewoon prima compatible met de Java-standaard. Dat er extra extensies op zitten... ja dat is niet relevant. Zolang je die niet gebruikt, is het gewoon puur Java. Grappig genoeg is de MS JVM nog steeds sneller dan de Sun JVM op mijn code, hoewel MS al lang niet meer ontwikkelt.
De vraag is dus meer: wat voor bezwaar was er nu voor Sun om deze snelle JVM niet mee te laten leveren? En ze hadden natuurlijk kunnen verwachten dat MS dan maar helemaal geen JVM meelevert.
Maar goed, het resultaat is duidelijk. Java heeft een flinke deuk opgelopen.

Verwijderd

bolleh schreef op maandag 14 februari 2005 @ 11:50:
[...]

probleem is dan wel dat je het gevaar loopt dat je de vooruitgang remt. de ontwerpers hebben immers niet echte vrijheid en dat kan op den duur nadelig zijn voor de snelheid
Ik zie het juist andersom. Bij CPUs hebben ontwerpers niet echte vrijheid... Ze MOETEN x86 implementeren. En zoals we al jaren weten, is x86 waardeloos verouderd. Het is al decennia lang nadelig voor de snelheid. Als je kijkt naar CPUs als de Itanium, de G4/G5, de Alpha, en dergelijke... dan mag het duidelijk zijn dat de x86 nadelig is voor de snelheid.
Als we over gaan op .NET, dan zijn we tenminste van het x86-gebeuren af, en hebben de ontwerpers vrijheid om een instructieset te ontwikkelen die geschikt is voor de huidige technologie, en niet de technologie van de jaren 70.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op maandag 14 februari 2005 @ 12:39:
[...]


De vraag is dus meer: wat voor bezwaar was er nu voor Sun om deze snelle JVM niet mee te laten leveren? En ze hadden natuurlijk kunnen verwachten dat MS dan maar helemaal geen JVM meelevert.
Maar goed, het resultaat is duidelijk. Java heeft een flinke deuk opgelopen.
Die extensies van MS zijn exact het probleem. MS denkt dat ze het product 'wel even beter zullen maken'. Op zich een nobel streven, maar ze sturen vervolgens de verbeteringen niet terug naar Sun. Daardoor krijg je dat je een bepaalde VM (die van MS) nodig hebt om bepaalde apps te draaien. En dat is nu juist 't punt van java, dat dat niet hoeft.

Een soortgelijk probleem zie je ook met IE. Microsoft heeft daar allerlei extra nonstandaard meuk in zitten en meuk die wel in de standaard bestaat maar daar van afwijkt. Zodanig is er nu een groot aantal websites dat gewoon niet of brak werkt in andere browsers dan IE, terwijl HTML op zich (als opmaaktaal) zo onafhankelijk zou moeten zijn als de pest.

All my posts are provided as-is. They come with NO WARRANTY at all.


Verwijderd

CyBeR schreef op maandag 14 februari 2005 @ 12:47:
[...]


Die extensies van MS zijn exact het probleem. MS denkt dat ze het product 'wel even beter zullen maken'. Op zich een nobel streven, maar ze sturen vervolgens de verbeteringen niet terug naar Sun. Daardoor krijg je dat je een bepaalde VM (die van MS) nodig hebt om bepaalde apps te draaien. En dat is nu juist 't punt van java, dat dat niet hoeft.

Een soortgelijk probleem zie je ook met IE. Microsoft heeft daar allerlei extra nonstandaard meuk in zitten en meuk die wel in de standaard bestaat maar daar van afwijkt. Zodanig is er nu een groot aantal websites dat gewoon niet of brak werkt in andere browsers dan IE, terwijl HTML op zich (als opmaaktaal) zo onafhankelijk zou moeten zijn als de pest.
In beide gevallen is het antwoord simpel (helaas voor de anti-MS mensen onder ons): als de ontwikkelaars willen dat hun code overal werkt, is het aan hun om ervoor te zorgen dat ze dus niet die extensies gebruiken.
Kennelijk willen niet alle ontwikkelaars dat. Blijkbaar zijn de voordelen van die extensies groter dan de nadelen... En met het marktaandeel van Windows kan ik dat wel begrijpen.
Ik ontwikkel zelf ook meestal Windows-only applicaties... Waarom porten naar andere OSen als er toch niemand is die ze gebruikt? Ligt maar net aan je doelgroep. Ik maak het dan liever zo goed mogelijk voor Windows.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op maandag 14 februari 2005 @ 13:32:
[...]


In beide gevallen is het antwoord simpel (helaas voor de anti-MS mensen onder ons): als de ontwikkelaars willen dat hun code overal werkt, is het aan hun om ervoor te zorgen dat ze dus niet die extensies gebruiken.
Kennelijk willen niet alle ontwikkelaars dat. Blijkbaar zijn de voordelen van die extensies groter dan de nadelen... En met het marktaandeel van Windows kan ik dat wel begrijpen.
Ik ontwikkel zelf ook meestal Windows-only applicaties... Waarom porten naar andere OSen als er toch niemand is die ze gebruikt? Ligt maar net aan je doelgroep. Ik maak het dan liever zo goed mogelijk voor Windows.
Dat geldt ook maar 25% van de tijd. Het grootste deel van de mensen die van dergelijke extensies gebruik maakt is namelijk onder te brengen in de categorie prutser-die-niet-beter-weet. Sorry, maar zo is 't nu eenmaal. Als jij van dergelijke extensies gebruik wilt maken, wetend dat 't dan niet meer buiten Windows werkt (en waarom prog je dan nog in java?) is dat jouw keus natuurlijk, maar er schuilt een gevaar in dat minder ervaren programmeurs de extensies gebruiken omdat ze denken dat die overal werken.

All my posts are provided as-is. They come with NO WARRANTY at all.


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 13:32:
[...]


In beide gevallen is het antwoord simpel (helaas voor de anti-MS mensen onder ons): als de ontwikkelaars willen dat hun code overal werkt, is het aan hun om ervoor te zorgen dat ze dus niet die extensies gebruiken.
En de praktijk leert dat het streven van Microsoft om zoveel mogelijk gebruikers afhankelijk te maken van MS dus prima werkt... Ofwel, door incompatibiliteit te creëren heeft Microsoft Java beschadigd(wat natuurlijk ook precies de bedoeling was...), niet Sun. Wel even realistisch blijven.

Hoeveel websites zijn er niet die alleen maar werken op IE, terwijl er mogelijkheden genoeg zijn om een website er op elke browser gelijk uit te laten zien? Daar zie je namelijk precies hetzelfde verschijnsel waar MS een prima standaard vakkundig om zeep heeft geholpen puur en alleen om er zelf beter van te worden.
Kennelijk willen niet alle ontwikkelaars dat. Blijkbaar zijn de voordelen van die extensies groter dan de nadelen... En met het marktaandeel van Windows kan ik dat wel begrijpen.
Tja, nogmaals, precies wat Microsoft graag wil dus: de concurrentie het bestaan onmogelijk maken door bestaande standaarden om te buigen zodat ze Windows-only worden. Op een hele misselijke manier ook nog wel.
Ik ontwikkel zelf ook meestal Windows-only applicaties... Waarom porten naar andere OSen als er toch niemand is die ze gebruikt? Ligt maar net aan je doelgroep. Ik maak het dan liever zo goed mogelijk voor Windows.
Tja, en welk voordeel heb je dan nog bij het gebruiken van Java? Waarom dan niet gewoon een native Win32 applicatie schrijven? Is nog stukken sneller ook...

[ Voor 23% gewijzigd door Luke_msx op 14-02-2005 13:57 ]

Macbook 2,13 GHz 4GB 120GB SSD


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 12:43:
[...]


Ik zie het juist andersom. Bij CPUs hebben ontwerpers niet echte vrijheid... Ze MOETEN x86 implementeren. En zoals we al jaren weten, is x86 waardeloos verouderd. Het is al decennia lang nadelig voor de snelheid. Als je kijkt naar CPUs als de Itanium, de G4/G5, de Alpha, en dergelijke... dan mag het duidelijk zijn dat de x86 nadelig is voor de snelheid.
Als we over gaan op .NET, dan zijn we tenminste van het x86-gebeuren af, en hebben de ontwerpers vrijheid om een instructieset te ontwikkelen die geschikt is voor de huidige technologie, en niet de technologie van de jaren 70.
Nee inderdaad, niet meer gebonden aan technologie uit de jaren 70. Maar in plaats daarvan gebonden aan technologie die ons is opgedrongen door een monopolist die al jaren zijn uiterste best doet om zijn concurrentie de toegang tot de vrije markt af te sluiten. Een hele vooruitgang... :Z

Wat dat betreft zou het dus nog steeds beter te zijn om over te gaan op de Java versie van Sun(!); daarmee ben je in ieder geval echt platformonafhankelijk.

Overigens geloof ik sowieso niet zo in dit soort oplossingen, vooralsnog vind ik de performance ervan nog niet geweldig. Nogal verspilling van CPU capaciteit om on the fly te compileren...

[ Voor 16% gewijzigd door Luke_msx op 14-02-2005 14:01 ]

Macbook 2,13 GHz 4GB 120GB SSD


Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 13:48:
[...]

Tja, en welk voordeel heb je dan nog bij het gebruiken van Java? Waarom dan niet gewoon een native Win32 applicatie schrijven? Is nog stukken sneller ook...
Ik zei niet dat mijn Java applicaties Windows-only waren.
Ik zei dat ik meestal Windows-only applicaties ontwikkel.
Ik gebruik Java juist als het overal moet werken.
En stukken sneller? Dat hangt er maar vanaf. Met bv string processing is Java heel erg snel, daar kan portable C code vaak nog een puntje aan zuigen. Het ligt er allemaal maar net aan wat je moet programmeren... en vaak ook hoe je het programmeert. Als je Java op de juiste manier gebruikt, kan het best heel snel zijn, soms zelfs sneller dan C oid. En meestal is snelheid toch niet relevant meer. De meeste mensen hebben meer dan 1 GHz tegenwoordig... Dat is veel te veel voor de meeste simpele taken. Als je code dan iets trager is, dan geeft dat helemaal niet, dat merkt toch niemand.

Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 13:53:
[...]


Nee inderdaad, niet meer gebonden aan technologie uit de jaren 70. Maar in plaats daarvan gebonden aan technologie die ons is opgedrongen door een monopolist die al jaren zijn uiterste best doet om zijn concurrentie de toegang tot de vrije markt af te sluiten. Een hele vooruitgang... :Z
Als je verwacht dat ik hier serieus op in ga, dan heb je het fout.
Ik heb liever technische discussies.

  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 14:08:
[...]


Als je verwacht dat ik hier serieus op in ga, dan heb je het fout.
Ik heb liever technische discussies.
Prima; maar vergeet dan niet dat als de wereld op grote schaal kiest voor .NET we in de toekomst geen technische discussies meer hoeven hebben omdat alle keuzes dan al voor ons gemaakt zijn.

Macbook 2,13 GHz 4GB 120GB SSD


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 14:06:
[...]

Dat is veel te veel voor de meeste simpele taken. Als je code dan iets trager is, dan geeft dat helemaal niet, dat merkt toch niemand.
Tja, ziehier de mentaliteit van de moderne programmeur. Waar is de tijd gebleven dat je als programmeur de maximale performance uit je programma wilde halen? Door dit soort ideeën wordt moderne hardware dus nooit ten volle benut en dat is doodzonde...

Macbook 2,13 GHz 4GB 120GB SSD


  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

jalumsx schreef op maandag 14 februari 2005 @ 14:15:
[...]


Tja, ziehier de mentaliteit van de moderne programmeur. Waar is de tijd gebleven dat je als programmeur de maximale performance uit je programma wilde halen? Door dit soort ideeën wordt moderne hardware dus nooit ten volle benut en dat is doodzonde...
En bovendien heeft niet iedereen dergelijk snelle procs. En daardoor krijg je nu dat dingen als tekstverwerkers met systeemrequirements komen van 500MHz+ en 256MB ram enzo. (Niet accuraat waarschijnlijk, maar you get the point). En dat alles om wat tekst te kunnen manipuleren.

All my posts are provided as-is. They come with NO WARRANTY at all.


  • chem
  • Registratie: Oktober 2000
  • Laatst online: 12-02 10:41

chem

Reist de wereld rond

jalumsx schreef op maandag 14 februari 2005 @ 14:15:
[...]


Tja, ziehier de mentaliteit van de moderne programmeur. Waar is de tijd gebleven dat je als programmeur de maximale performance uit je programma wilde halen? Door dit soort ideeën wordt moderne hardware dus nooit ten volle benut en dat is doodzonde...
Een programmeur per uur is veel duurder dan snellere hardware... tenzij je echt tegen grenzen aanloopt is het vaak goedkoper om duurdere hardware te nemen dan een programmeur door te laten werken.

Klaar voor een nieuwe uitdaging.


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
chem schreef op maandag 14 februari 2005 @ 14:21:
[...]

Een programmeur per uur is veel duurder dan snellere hardware... tenzij je echt tegen grenzen aanloopt is het vaak goedkoper om duurdere hardware te nemen dan een programmeur door te laten werken.
Dat gaat op als je het over maatwerk hebt. Maar als je spreekt over grote applicaties als bijvoorbeeld een Office pakket dan mag dat wat mij betreft minder meespelen; je wilt tenslotte zoveel mogelijk mensen bedienen met je software en dus de systeemeisen zo laag mogelijk hebben.

Macbook 2,13 GHz 4GB 120GB SSD


Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 14:12:
[...]

Prima; maar vergeet dan niet dat als de wereld op grote schaal kiest voor .NET we in de toekomst geen technische discussies meer hoeven hebben omdat alle keuzes dan al voor ons gemaakt zijn.
Wat is precies het verschil met nu? Nu gebruiken we voornamelijk x86, en daar heeft Intel alle keuzes al voor ons gemaakt. En bij Java heeft Sun de keuzes al gemaakt.
Dus... ofwel je bent inconsequent, en hebt gewoon iets tegen Microsoft... of je moet toegeven dat er in feite niets verandert, behalve dat MS het vaandel van Intel overneemt. En Intel is nou niet bepaald minder monopolist dan MS.

En als we naar D3D kijken, kunnen we zien dat MS helemaal niet zo'n onderdrukker is. MS nodigt om de zoveel tijd de grote spelers op de grafische markt uit, en samen ontwikkelen ze de volgende D3D-standaard. Bij .NET zou het net zo kunnen gaan. Dat om de zoveel tijd de bytecode vernieuwd wordt, om mee te kunnen blijven gaan in de technische ontwikkelingen.
In dat geval kunnen we dus voor het eerst sinds jaren juist weer WEL de technische discussie aan gaan, waar voorheen x86 al vaststond, en discussie niet mogelijk was.

  • bartvb
  • Registratie: Oktober 1999
  • Laatst online: 05-01 14:41
@jalumsx: Klopt. Maar als je b.v. iets als OpenOffice wilt bouwen met alleen C met een berg assembly om het allemaal snel te houden en daarnaast ook nog zo min mogelijk libraries gebruikt en allerlei abstraction layers om de programmeur af te schermen van de hardware of het OS dan ben je sowieso een paar keer langer bezig en dan heb je ook enorme problemen met de portabiliteit.

Tegenwoordig heeft iedereen een machine met een paar honder Mhz en een paar honderd MB geheugen, dus waarom zou je dan moeilijk gaan doen met assembler e.d. om het allemaal wat sneller en efficienter te krijgen? Jij bent een paar jaar bezig voor een relatief eenvoudige app, de concurrent (met wat hogere systeemeisen) heeft na een paar maanden al een soortgelijk product af met nog meer functionaliteit ook. OK, het is misschien wat langzamer en wat groter dan jouw super geoptimaliseerde pakket maar het pakket van de concurrent is nog in deze eeuw te gebruiken :)

Maar goed, dat is allemaal behoorlijk offtopic IMO :)

@ddbruijn: Heb jij al D3D gezien op andere platformen dan wintel? Nee? Ik ook niet ;) Of ja, er zijn wat OS developers bezig met het porten van wat D3D spul dacht ik maar die worden nou niet bepaald geholpen door MS...

[ Voor 11% gewijzigd door bartvb op 14-02-2005 14:47 ]


Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 14:15:
[...]


Tja, ziehier de mentaliteit van de moderne programmeur. Waar is de tijd gebleven dat je als programmeur de maximale performance uit je programma wilde halen? Door dit soort ideeën wordt moderne hardware dus nooit ten volle benut en dat is doodzonde...
Als je mij zou kennen, zou je weten dat dit niet mijn mentaliteit is... Sterker nog, als je mijn post goed had gelezen, zou je zien dat ik JUIST zei dat je de maximale performance uit je programma moet halen. En lees ook nog maar eens de info rond het HP Dynamo project door, als we het toch hebben over het ten volle benutten van moderne hardware.

  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 14:40:
[...]


Wat is precies het verschil met nu? Nu gebruiken we voornamelijk x86, en daar heeft Intel alle keuzes al voor ons gemaakt.
Maar ik kan wel vrijelijk kiezen voor een AMD machine of zelfs voor een Mac met een PowerPC etc. Met .NET ben je automatisch met handen en voeten gebonden aan MS.
En bij Java heeft Sun de keuzes al gemaakt.
Sun Java is voor een heleboel platformen beschikbaar. Niet alleen voor MS of x86. Slechte vergelijking dus.
Dus... ofwel je bent inconsequent, en hebt gewoon iets tegen Microsoft... of je moet toegeven dat er in feite niets verandert, behalve dat MS het vaandel van Intel overneemt. En Intel is nou niet bepaald minder monopolist dan MS.
Zoals je al kon lezen ben ik dus die niet met je eens. En ja, ik heb wel iets tegen MS inderdaad; niet tegen het bedrijf op zich maar wel tegen de manier waarop ze keer of keer proberen de concurrentie het bestaan onmogelijk te maken; en niet door zulke goede producten te maken maar door alternatieve producten het bestaan ACTIEF onmogelijk te maken
En als we naar D3D kijken, kunnen we zien dat MS helemaal niet zo'n onderdrukker is. MS nodigt om de zoveel tijd de grote spelers op de grafische markt uit, en samen ontwikkelen ze de volgende D3D-standaard. Bij .NET zou het net zo kunnen gaan. Dat om de zoveel tijd de bytecode vernieuwd wordt, om mee te kunnen blijven gaan in de technische ontwikkelingen.
In dat geval kunnen we dus voor het eerst sinds jaren juist weer WEL de technische discussie aan gaan, waar voorheen x86 al vaststond, en discussie niet mogelijk was.
En hoe is D3D beschikbaar voor andere platformen dan Windows? Juist. En .NET? Juist. Dus helpt .NET ons van de regen in de drup, en eigenlijk is de drup in dit geval nog erger dan de regen...

[ Voor 9% gewijzigd door Luke_msx op 14-02-2005 15:03 ]

Macbook 2,13 GHz 4GB 120GB SSD


Verwijderd

Je dwaalt helemaal af. Het gaat helemaal niet om software, en dus al zeker niet om MS vs de wereld, hoe graag je het daar zelf ook over wilt hebben.
Ik wil je nog wel even wijzen op www.macdx.com, op het Mono project, de FreeBSD omgeving voor .NET, en het feit dat .NET gebaseerd is op open standaarden die iedereeen vrij mag implementeren, om je een idee te geven over hoe fout je zit met MS/Windows/x86-only.

Nogmaals, het gaat om de hardware-platformen, en hoe je code op verschillende platformen (optimaal) kunt laten draaien. Dat geleuter over D3D dat alleen op Windows (en Mac dus) draaait is compleet niet relevant, en is niets meer of minder dan een anti-MS troll.

[ Voor 25% gewijzigd door Verwijderd op 14-02-2005 17:22 ]


  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 16:45:
Je dwaalt helemaal af. Het gaat helemaal niet om software, en dus al zeker niet om MS vs de wereld, hoe graag je het daar zelf ook over wilt hebben.
Ik wil je nog wel even wijzen op www.macdx.com, op het Mono project, de FreeBSD omgeving voor .NET, en het feit dat .NET gebaseerd is op open standaarden die iedereeen vrij mag implementeren, om je een idee te geven over hoe fout je zit met MS/Windows/x86-only.

Nogmaals, het gaat om de hardware-platformen, en hoe je code op verschillende platformen (optimaal) kunt laten draaien. Dat geleuter over D3D dat alleen op Windows (en Mac dus) draaait is compleet niet relevant, en is niets meer of minder dan een anti-MS troll.
Vertel eens, hoeveel medewerking krijgen de makers van die projecten van Microsoft? Laat maar, ik weet het antwoord wel. Hoe je ook anders wilt doen geloven, het blijft een feit dat Microsoft dit soort projecten, die het moeten hebben van zorgvuldige reverse-engineering, altijd zal pogen te dwarsbomen. En het spijt me, jij mag het een troll noemen maar ik heb dagelijks genoeg met dergelijke praktijken van MS te maken om te weten hoe de vork bij dat bedrijf in de steel zit. Ik zie een door .NET gedomineerde software wereld dus ook absoluut niet zitten; Microsoft heeft wat mij betreft al zijn goodwill al lang geleden verspeeld.

Jij weet net zo goed als ik dat als dergelijke projecten in de ogen van MS té succesvol worden dat MS wel weer één of andere veiligheid heeft ingebouwd die dergelijke projecten het bestaan bemoeilijken. Wat dat betreft heeft de ervaring met Samba wel genoeg geleerd, lijkt me.

Macbook 2,13 GHz 4GB 120GB SSD


Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 19:03:
[...]


Vertel eens, hoeveel medewerking krijgen de makers van die projecten van Microsoft? Laat maar, ik weet het antwoord wel. Hoe je ook anders wilt doen geloven, het blijft een feit dat Microsoft dit soort projecten, die het moeten hebben van zorgvuldige reverse-engineering, altijd zal pogen te dwarsbomen. En het spijt me, jij mag het een troll noemen maar ik heb dagelijks genoeg met dergelijke praktijken van MS te maken om te weten hoe de vork bij dat bedrijf in de steel zit. Ik zie een door .NET gedomineerde software wereld dus ook absoluut niet zitten; Microsoft heeft wat mij betreft al zijn goodwill al lang geleden verspeeld.
Ten eerste gaat deze hele discussie hier niet over, zoals ik al eerder zei. Het gaat om het idee en de technologie achter .NET (en Java dus). Jammer dat .NET toevallig van MS is, zodat mensen als jij het weer nodig vinden om te gaan lopen zeiken over dingen die niets met de technologie zelf te maken hebben.
Ten tweede, zoals ik al eerder zei, is .NET op open standaarden gebaseerd, die iedereen vrij kan inzien, dus is er van reverse-engineering totaal geen sprake.
Je bent gewoon totaal niet geinformeerd, en je zit maar wat off-topic te blaten, omdat je toevallig ergens 'MS' leest, of iets wat daarmee te maken heeft. En dat is trollen ja.
Jij weet net zo goed als ik dat als dergelijke projecten in de ogen van MS té succesvol worden dat MS wel weer één of andere veiligheid heeft ingebouwd die dergelijke projecten het bestaan bemoeilijken. Wat dat betreft heeft de ervaring met Samba wel genoeg geleerd, lijkt me.
Samba is absoluut niet te vergelijken met .NET. Samba probeert een standaard te implementeren die NIET open is, en die NIET bedoeld is om op ieder platform vrij geimplementeerd te worden. Dat ze dan geen medewerking krijgen van MS is niet meer dan logisch. Het was helemaal nooit de bedoeling om SMB op andere systemen te laten werken.
Dat vind ik ook zo vervelend aan die opensource-kliek. Die mensen verwachten van iedereen belangeloze medewerking. Zo werkt de wereld nou eenmaal niet. En als je dat niet kunt verwerken, ga eens naar een psychiater ofzo, ipv hier off-topic te gaan lopen trollen.

  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 19:16:
[...]


Ten eerste gaat deze hele discussie hier niet over, zoals ik al eerder zei. Het gaat om het idee en de technologie achter .NET (en Java dus). Jammer dat .NET toevallig van MS is, zodat mensen als jij het weer nodig vinden om te gaan lopen zeiken over dingen die niets met de technologie zelf te maken hebben.
Toch wel; de naam Microsoft is nu eenmaal automatisch verbonden aan een bedrijf dat niets maar dan ook niets opheeft met open standaarden. En de technologie is desondanks vooral gebaat bij open standaarden.
Ten tweede, zoals ik al eerder zei, is .NET op open standaarden gebaseerd, die iedereen vrij kan inzien, dus is er van reverse-engineering totaal geen sprake.
Je bent gewoon totaal niet geinformeerd, en je zit maar wat off-topic te blaten, omdat je toevallig ergens 'MS' leest, of iets wat daarmee te maken heeft. En dat is trollen ja.
Sorry hoor, maar de praktijken van MS de afgelopen jaren hebben deze mening van mij gevormd. En dat heeft het bedrijf Microsoft zelf in de hand gewerkt, ik zal dat bedrijf nooit meer 100% vertrouwen. Wat mij betreft had je pas een punt als Microsoft zélf .NET ook uit zou brengen voor andere platforms, en dat doen ze dus niet. Wil je .NET gebruiken op een ander platform dan zul je eerst zelf moeten zorgen dat je je .NET implementatie geschreven hebt.
[...]
Samba is absoluut niet te vergelijken met .NET. Samba probeert een standaard te implementeren die NIET open is, en die NIET bedoeld is om op ieder platform vrij geimplementeerd te worden. Dat ze dan geen medewerking krijgen van MS is niet meer dan logisch. Het was helemaal nooit de bedoeling om SMB op andere systemen te laten werken.
Dat vind ik ook zo vervelend aan die opensource-kliek. Die mensen verwachten van iedereen belangeloze medewerking. Zo werkt de wereld nou eenmaal niet. En als je dat niet kunt verwerken, ga eens naar een psychiater ofzo, ipv hier off-topic te gaan lopen trollen.
Prima joh. Maarreh, ik verwacht helemaal geen belangeloze medewerking. Wel verwacht ik eerlijke concurrentie, en zodra Microsoft ergens bij betrokken is, is eerlijke concurrentie ver uit het zicht verdwenen. Vandaar dus ook dat ik een architectuur van MS die oorspronkelijk alleen bedacht is om Sun dwars te liggen niet bepaald als de heilige graal van de moderne technologie zie.

Macbook 2,13 GHz 4GB 120GB SSD


Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 19:39:
[...]


Toch wel; de naam Microsoft is nu eenmaal automatisch verbonden aan een bedrijf dat niets maar dan ook niets opheeft met open standaarden. En de technologie is desondanks vooral gebaat bij open standaarden.
Het ZIJN open standaarden, dus je zeurt.
Wat mij betreft had je pas een punt als Microsoft zélf .NET ook uit zou brengen voor andere platforms, en dat doen ze dus niet. Wil je .NET gebruiken op een ander platform dan zul je eerst zelf moeten zorgen dat je je .NET implementatie geschreven hebt.
Jammer dat je zo slecht leest.
Google eens op "Shared Source Common Language Infrastructure".
Hee, kijk eens aan, werkt op Windows, FreeBSD en Mac OS X!
Prima joh. Maarreh, ik verwacht helemaal geen belangeloze medewerking. Wel verwacht ik eerlijke concurrentie, en zodra Microsoft ergens bij betrokken is, is eerlijke concurrentie ver uit het zicht verdwenen. Vandaar dus ook dat ik een architectuur van MS die oorspronkelijk alleen bedacht is om Sun dwars te liggen niet bepaald als de heilige graal van de moderne technologie zie.
Objectief oordelen is niet je sterkste punt he?
En technisch heb je ook nog niet veel aan de discussie toegevoegd... Wat wil je eigenlijk bereiken met die posts van je... Je frustratie van je af schrijven?

  • bolleh
  • Registratie: Juli 2001
  • Laatst online: 14-02 21:14
Verwijderd schreef op maandag 14 februari 2005 @ 12:43:
[...]


Ik zie het juist andersom. Bij CPUs hebben ontwerpers niet echte vrijheid... Ze MOETEN x86 implementeren. En zoals we al jaren weten, is x86 waardeloos verouderd. Het is al decennia lang nadelig voor de snelheid. Als je kijkt naar CPUs als de Itanium, de G4/G5, de Alpha, en dergelijke... dan mag het duidelijk zijn dat de x86 nadelig is voor de snelheid.
Als we over gaan op .NET, dan zijn we tenminste van het x86-gebeuren af, en hebben de ontwerpers vrijheid om een instructieset te ontwikkelen die geschikt is voor de huidige technologie, en niet de technologie van de jaren 70.
dat bedoelde ik dus ook te zeggen... :P

in mn voorbeeld moet de kaart dus direct x 10 compatible zijn, maar het gevaar van dat "moeten" is dat je dus hele nieuwe mogelijk goede ideeen mischien ondersneeuwt en daardoor veel snelheid mist

  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 19:46:
[...]


Het ZIJN open standaarden, dus je zeurt.


[...]


Jammer dat je zo slecht leest.
Google eens op "Shared Source Common Language Infrastructure".
Hee, kijk eens aan, werkt op Windows, FreeBSD en Mac OS X!
Yep, en wie heeft die versie voor non Windows OS'en geschreven? Microsoft zelf? Nee dus. Welke garanties heb je dus op compatibiliteit? Wederom, geen.
Objectief oordelen is niet je sterkste punt he?
En technisch heb je ook nog niet veel aan de discussie toegevoegd... Wat wil je eigenlijk bereiken met die posts van je... Je frustratie van je af schrijven?
Sorry, maar iemand die een Microsoft techniek ophemelt die notabene ooit alleen maar bedacht is om een gevestigde standaard (Java) kapot te maken (de ENIGE reden dat .NET gedocumenteerd is is NATUURLIJK dat MS wist dat ze anders geen enkele voet aan de grond zouden krijgen met hun .NET) en dan een ander verwijt niet objectief te oordelen, tja...

Let maar op mijn woorden: MS zal vroeg of laat iets met .NET doen waardoor alle huidige alternatieven op slag niet of niet goed meer werken, zoals al zo vaak is gebeurd. Maar wel pas als iedereen .NET als defacto standaard heeft geaccepteerd. Als jij het vreemd vindt dat deze sentimenten bestaan in de software-community, dan zou jij eens moeten lezen over de geschiedenis van Microsoft en de manier waarop het bedrijf zijn monopoliepositie heeft bewerkstelligd. Ik vind het werkelijk ontstellend om te zien dat iemand die klaarblijkelijk thuis is in de materie desondanks zo gemakkelijk in de valkuilen van Microsoft trapt.

[ Voor 8% gewijzigd door Luke_msx op 14-02-2005 19:57 ]

Macbook 2,13 GHz 4GB 120GB SSD


Verwijderd

bolleh schreef op maandag 14 februari 2005 @ 19:52:
[...]

dat bedoelde ik dus ook te zeggen... :P

in mn voorbeeld moet de kaart dus direct x 10 compatible zijn, maar het gevaar van dat "moeten" is dat je dus hele nieuwe mogelijk goede ideeen mischien ondersneeuwt en daardoor veel snelheid mist
Ik denk niet dat je het begrijpt. DirectX schrijft geen instructieset voor, alleen een featureset. Hoe je die features implementeert, mag je zelf weten. En de featureset wordt samengesteld door de hardware-fabrikanten, in overleg met Microsoft. Dus alle goede ideeen zitten er meestal wel in. De standaard wordt ook iedere paar jaar grondig geupdate.
Als je die standaard niet had, dan zat je weer in het Glide-tijdperk... Voodoo-kaarten werkten leuk, maar de software werkte niet op andere kaarten, want die hadden geen Glide, maar andere standaarden. Dankzij DirectX hebben we dat probleem niet meer.

Bij .NET heb je hetzelfde... Je hoeft dan niet meer x86-compatible te zijn... Je CPU hoeft alleen maar 'ongeveer' zo te werken als .NET graag wil, verder ben je vrij om de hardware naar eigen inzicht te ontwerpen. En omdat de .NET features gebaseerd zijn op moderne programmeertalen als C++/Pascal/Java, zijn ze ideaal voor de meeste software.
We zien dus dat de redenering omgekeerd is. In de jaren 70, toen de x86 onworpen werd, was het idee om een zo krachtig mogelijke CPU te ontwerpen, en dan de code met de hand te schrijven.
Tegenwoordig is het niet meer te doen om alles met de hand te schrijven, dus is het logischer om naar de programmeertalen te kijken, en van daaruit de hardware te ontwikkelen die die code optimaal kan uitvoeren. Het gaat niet meer puur om de kracht van de CPU, maar om het teamwork tussen compiler en CPU. En daarin is x86 niet sterk.

  • Luke_msx
  • Registratie: Februari 2003
  • Nu online
Verwijderd schreef op maandag 14 februari 2005 @ 20:09:
[...]


Ik denk niet dat je het begrijpt. DirectX schrijft geen instructieset voor, alleen een featureset. Hoe je die features implementeert, mag je zelf weten. En de featureset wordt samengesteld door de hardware-fabrikanten, in overleg met Microsoft. Dus alle goede ideeen zitten er meestal wel in. De standaard wordt ook iedere paar jaar grondig geupdate.
Als je die standaard niet had, dan zat je weer in het Glide-tijdperk... Voodoo-kaarten werkten leuk, maar de software werkte niet op andere kaarten, want die hadden geen Glide, maar andere standaarden. Dankzij DirectX hebben we dat probleem niet meer.
Er bestond al een prima oplossing; die heette OpenGL. Maar nee, MS moest weer een eigen standaard bedenken, in plaats van een bestaande standaard te adopteren. Zo ook voor .NET, Java bestond al en werkte prima. Snap je nou echt mijn bezwaren niet tegen de werkwijze van MS?

[ Voor 3% gewijzigd door Luke_msx op 14-02-2005 20:15 ]

Macbook 2,13 GHz 4GB 120GB SSD


Verwijderd

jalumsx schreef op maandag 14 februari 2005 @ 19:53:
[...]


Yep, en wie heeft die versie voor non Windows OS'en geschreven? Microsoft zelf? Nee dus. Welke garanties heb je dus op compatibiliteit? Wederom, geen.
Erm, die heeft Microsoft dus WEL geschreven. Heb je uberhaupt gezocht?
Sorry, maar iemand die een Microsoft techniek ophemelt die notabene ooit alleen maar bedacht is om een gevestigde standaard (Java) kapot te maken (de ENIGE reden dat .NET gedocumenteerd is is NATUURLIJK dat MS wist dat ze anders geen enkele voet aan de grond zouden krijgen met hun .NET) en dan een ander verwijt niet objectief te oordelen, tja...
Erm, of .NET ontworpen is om Java kapot te maken of niet, dat heeft weinig te maken met hoe goed .NET is. Als we objectief kijken, zien we dat Java en .NET qua techniek niet zo gek veel van elkaar verschillen, en dat .NET een aantal dingen te bieden heeft die de code efficienter kunnen maken dan in Java.
Om die reden vond ik het wel nuttig om zowel .NET als Java te noemen. Verder heb ik niet .NET opgehemeld, maar slechts het idee van dynamische compilatie als mooie oplossing genoemd voor snelle, hardware-onafhankelijke code, dat dus onder andere in .NET en Java toegepast wordt.
Ben je nu helemaal verblind door die anti-MS sympathieen dat je niet eens normaal de thread kunt volgen?
Let maar op mijn woorden: MS zal vroeg of laat iets met .NET doen waardoor alle huidige alternatieven op slag niet of niet goed meer werken, zoals al zo vaak is gebeurd. Maar wel pas als iedereen .NET als defacto standaard heeft geaccepteerd. Als jij het vreemd vindt dat deze sentimenten bestaan in de software-community, dan zou jij eens moeten lezen over de geschiedenis van Microsoft en de manier waarop het bedrijf zijn monopoliepositie heeft bewerkstelligd. Ik vind het werkelijk ontstellend om te zien dat iemand die klaarblijkelijk thuis is in de materie desondanks zo gemakkelijk in de valkuilen van Microsoft trapt.
Welke valkuilen? Je vergeet dat ik voornamelijk Windows-only code schrijf. Voor mij zijn er dus geen valkuilen, zolang het op Windows werkt, is het voor mij goed genoeg. Het gaat mij er alleen om dat ik graag andere CPUs zou willen gebruiken dan de x86.
Als Windows ooit z'n marktaandeel verliest, dan stap ik gewoon over op datgene wat dan gangbaar is.
Dus ik hoef ook helemaal niet paranoide te gaan doen, of te gaan zeuren over MS. Het interesseert mij weinig dat ze graag hun marktaandeel in stand willen houden. Het is voor mij wel handig, omdat ik gewoon Windows-only kan blijven ontwikkelen. Het zou een stuk lastiger zijn als er twee of drie ongeveer even grote spelers zouden zijn. Dan zou ik moeilijk moeten gaan doen om alles overal te laten werken, of accepteren dat ik bij voorbaat een groot deel van de markt uitsluit.
Dus nee, ik slaap 's nachts nog prima hoor, wat MS ook uitvoert. Ik vind mensen als jij een stuk vervelender dan wat MS al dan niet doet.
Pagina: 1 2 Laatste