Total Cost of Ownership

Pagina: 1
Acties:
  • 297 views sinds 30-01-2008

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Wat is als IT beheerder belankrijk? Ik denk de TCO. Hoe goedkoper het voor een bedrijf is om computers te hebben en te gebruiken, hoe beter.

Maar veel (grote) beheerbedrijven zijn het daar niet mee eens: hoe hoger die TCO, hoe meer geld ze verdienen.

Maar, het gaat niet zo goed met de economie. Dus wat is wijsheid? Een goede service voor een goede prijs, of de klanten die je nog hebt uitkleden zolang het nog kan?

Verwijderd

Afhankelijk van de economische ontwikkelingen op korte en lange termijn (dus ergens tussen de 3 en 5 jaar, in acht genomen dat een gemiddeld bedrijf in die periode weer nieuwe hardware aan kan/mag/moet schaffen), is TCO dus wel/niet belangrijk voor een bedrijf.

Je kan ervanuitgaan dat TCO evenredig minder belangrijk wordt ten op zichte van de grootte van een bedrijf. Hoe meer mensen/panden/$$$ per bedrijf, hoe minder er naar TCO wordt gekeken en meer naar functionaliteit van de hele bende.

Maar, wat is de insteek van je vraag?

[ Voor 4% gewijzigd door Verwijderd op 25-04-2003 02:38 . Reden: Algemeen gebabbel... ]


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Meer dan 90% van alle bedrijven hebben voor het jaar 2000 uitgezocht of ze daar schade van konden ondervinden. Toen is dus ook bij het management op tafel gekomen wat er nu eigenlijk gebeurd met IT binnen hun bedrijf. En daar zijn ze zich allemaal helemaal wezenloos van geschrokken: "Zo veel? Zo duur? ZO WEINIG RESULTATEN? Dus, van de meeste projecten zitten er nog steeds mensen hier om die aan de praat te houden? Dat betalen wij? Het heeft dus nog NOOIT goed gewerkt?"

...

We zij nu meer dan 3 jaar verder. Alle apparatuur en programmatuur is verouderd en afgeschreven. "We moeten wat. Maar WAT?!? Ik heb geen zin in meer van die eindeloze ellende, die nooit goed werkt en ons een enorm vermogen kost. Deze keer moet het wel werken!"

Inderdaad. Daar ben ik het helemaal mee eens. Maar dat betekent ook meteen het failissement voor alle "gerenommeerde" bedrijven in dat vakgebied (zoals Getronics).

[ Voor 3% gewijzigd door DiGuru op 25-04-2003 02:47 ]


Verwijderd

Ik denk, aangezien ons bedrijf ook een malaise kent qua werk, dat een aantal bedrijven het een beetje zat zijn met Microsoft en de kat uit de boom kijken op dit moment. En dat niet alleen vanwege de kosten voor een nieuwe omgeving, maar ook voor een OS wat past bij de behoeften.

Als ik NU zou moeten roepen wat een middelgroot bedrijf (>500 werknemers) zou moeten neerzetten, dan gok ik .NET aangezien dat zeer scalable is en de clients niet meer een godsvermogen hoeven te kosten. En aangezien het serverpark voor .NET redelijk prijzig is, is dat een druppel op de gloeiende plaat op de lange termijn, want je moet toch goed spul aanschaffen.

  • Glashelder
  • Registratie: September 2002
  • Niet online

Glashelder

Anti Android

DiGuru schreef op 25 april 2003 @ 02:46:
Meer dan 90% van alle bedrijven hebben voor het jaar 2000 uitgezocht of ze daar schade van konden ondervinden. Toen is dus ook bij het management op tafel gekomen wat er nu eigenlijk gebeurd met IT binnen hun bedrijf. En daar zijn ze zich allemaal helemaal wezenloos van geschrokken: "Zo veel? Zo duur? ZO WEINIG RESULTATEN? Dus, van de meeste projecten zitten er nog steeds mensen hier om die aan de praat te houden? Dat betalen wij? Het heeft dus nog NOOIT goed gewerkt?"
Dit komt bij zeer bekend voor van me vaders kantoor

Ze betalen KLAUWEN met geld aan de IT-beheerder daar, en het heeft nog NOOIT goed gewerkt. Toen zijn ze geswitched van bedrijf, en nu is het NOG duurder en werkt het nog slechter (lees: belabberd)

PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Verwijderd schreef op 25 april 2003 @ 02:50:
Ik denk, aangezien ons bedrijf ook een malaise kent qua werk, dat een aantal bedrijven het een beetje zat zijn met Microsoft en de kat uit de boom kijken op dit moment. En dat niet alleen vanwege de kosten voor een nieuwe omgeving, maar ook voor een OS wat past bij de behoeften.

Als ik NU zou moeten roepen wat een middelgroot bedrijf (>500 werknemers) zou moeten neerzetten, dan gok ik .NET aangezien dat zeer scalable is en de clients niet meer een godsvermogen hoeven te kosten. En aangezien het serverpark voor .NET redelijk prijzig is, is dat een druppel op de gloeiende plaat op de lange termijn, want je moet toch goed spul aanschaffen.
Tja, ik zou datzelfde doen met Linux en mijn eigen distributie- en beheersysteem. Dat werkt minstens net zo goed. Ik vind, dat dat vele malen beter en simpeler werkt, maar ik ben natuurlijk bevooroordeeld.

Ik zal eens wat daarover hier posten.

Verwijderd

DiGuru schreef op 25 April 2003 @ 02:58:
[...]


Tja, ik zou datzelfde doen met Linux en mijn eigen distributie- en beheersysteem. Dat werkt minstens net zo goed. Ik vind, dat dat vele malen beter en simpeler werkt, maat ik ben natuurlijk bevooroordeeld.

Ik zal eens wat daarover hier posten.
Ja en nee... Linux is natuurlijk een grote kosten-bespaarder bij grote organisaties, maar je zit met het feit dat de gemiddelde gebruiker dan gaat lopen zeiken dat het er niet zo uitziet zoals thuis en zoals hiervoor.

En aangezien Linux bij een heleboel bedrijven niet als server-OS wordt neergezet, zit je vast aan het duurdere UNIX of Microsoft.

Tuurlijk, als een bedrijf wil experimenteren, kan je voor weinig geld klaar zijn als je ALLE hardware voorziet van Linux-distro's...

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Bij mijn beheer- en distributiesysteem, heb je 1 executable van 750k, die in de netlogon directory staat, samen met wat ini-files. De primaire ini-file ziet er zo uit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
;   Global Enterprise Management
;
;   GEM.ini
;   
;   Description of all names and locations used by the logon
;
;   Author: 
;   Date:   
;   Modified:   
;


[Key Values]

timeserver=\\3gserver       ; Name of timeserver
packagesdir=\\3gserver\gem\packages ; Location of packages
updatesdir=\\3gserver\gem\update    ; Location of updates
logfile=\\3gserver\data\logfiles\gem.log    ; Logfile
mappingsfile=mappings.ini       ; Name of file with drivemappings
printersfile=printers.ini       ; Name of file with printermappings
applicationsfile=applications.ini   ; Name of file with applicationsettings
updatesfile=updates.ini     ; Name of file with updatesettings
groupsfile=groups.ini
syncfile=Sync.ini
registryfile=registry.ini
keyfile=
Sayhello=1          ; Show messagebox at end of logon
groupsserver=           ; Server to use if checking groups
Logoncaption=Global Enterprise Management:  
DeleteStartMenu=1           ; 1=Rebuild Menu, 0=Do not rebuild menu
executethis=
CopyFrom=
CopyTo=
StartMenuDirectory=
ProgramsMenu=
UserRegistryRoot=GEM
StartMenuRoot=%USERPROFILE%\Start menu
RedisDirectory=Install_Shortcuts
RedisRoot=%USERPROFILE%\Start Menu\
XtraShortcutsDirectory=Xtra_Shortcuts


En de volgende ini-files zien er dan zo uit (een paar voorbeeldjes):

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
;
;   Groups.ini
;   Optional file that allows you to define groups,
;   if you do not want to use global or local Domain groups.
;
;   Syntax:
;   [<GROUPNAME>]
;   <MEMBER1>
;   <MEMBER2>
;

[staff]
Davy
Leo
Frank

[tech]
Davy
Leo
Lysanne
Frank

[administratie]
Leo
Lysanne

;
;   Mappings.ini
;   
;   Allocation of drive mappings
;
;   Author:         F. Rademakers
;   Date:       27-10-1999
;   Modified:       4-2-2000 by F. Rademakers
;
;
;   Syntax:
;
;   <GROUP> = <DRIVE> <PATH> /SUBST /HIDE
;
;   <PATH>, /SUBST and /HIDE are optional
;
;   Everyone= or <GROUPNAME>= or <USERID>= to specify group
;
;


tech        =   w:  \\3gserver\data
staff       =   r:  \\3gserver\netlogon


everyone    =   l:  \\AccS3\cd-1
everyone    =   m:  \\AccS3\cd-2
everyone    =   n:  \\AccS3\cd-3
everyone    =   o:  \\AccS3\cd-4


administratie   =   r:  \\AccS1\data
administratie   =   t:  \\AccS3\data
tech        =   u:  \\AccS3\techniek



everyone    =   lpt2:   \\AccS3\hpjet
everyone    =   lpt3:   \\administratie\hp-d


;
;   Registry.ini
;   
;   Description of all distributed registry settings
;
;   Author:     F. Rademakers
;   Date:       09-08-2001
;
;   Syntax:
;
;   [<NAME>]
;   Groups=<GROUP1>, <GROUP2>
;   HKEY=<HKEY>
;   Key=<PATH_TO_KEY>
;   Name=<NAME_OF_KEY>
;   Value=<VALUE>
;
;   ALL NAMES HAVE TO BE UNIQUE!
;
;   You can specify 1 or more groups, separated by ','
;
;   HKEY = HKEY_CLASSES_ROOT or
;          HKEY_CURRENT_USER or
;          HKEY_LOCAL_MACHINE or
;          HKEY_USERS or
;          HKEY_PERFORMANCE_DATA or
;          HKEY_CURRENT_CONFIG or
;          HKEY_DYN_DATA
;
;   Value = string or number (ie. 'Hello' or "Hello" or 123)
;   A number starting with $ is hexadecimal.
;
;   The value will be written each time.         
;

[Logon_sequence]
Groups  =   everyone
HKEY    =   HKEY_LOCAL_MACHINE
Key =   Software\Microsoft\Windows NT\CurrentVersion\Winlogon
Name    =   RunLogonScriptSync 
Value   =   1


Er zijn er dus meer (zoals een hele grote voor het distribueren van de applicaties), dit is voor het idee.

Ze zijn ook niet zo netjes: ik zou eigenlijk veel meer commentaar moeten toevegen. ;)

Verwijderd

Eventjes enigszins off-topic:
Probeer je jezelf nou de markt in te prijzen door te laten zien dat jouw ini-files kleiner zijn dan die van de concurrentie ofzo?? Volgens mij was de initiele vraagstelling in hoeverre TCO, economie en vervangingstraject met elkaar te maken hebben, en nu komen we op ini-files terecht; voor mij hoeft dat niet zo...

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Verwijderd schreef op 25 april 2003 @ 03:18:
Eventjes enigszins off-topic:
Probeer je jezelf nou de markt in te prijzen door te laten zien dat jouw ini-files kleiner zijn dan die van de concurrentie ofzo?? Volgens mij was de initiele vraagstelling in hoeverre TCO, economie en vervangingstraject met elkaar te maken hebben, en nu komen we op ini-files terecht; voor mij hoeft dat niet zo...
Het was om te laten zien wat de netwerkbeheerders gebruiken om hun werk te doen: notepad en die ini-files. Maar ze gebruiken meestal ook Ghost om images te maken en Wise voor packages.

En dat is het. Ook de servers hebben (meestal) geen verdere taak dan file- en printersharing. Als je wat wilt wijzigen, wijzig je het op de computers van de gebruikers, door pakketjes te maken en de ini-files aan te passen. Dat is alles. Daarmee kan je een multinational van 10.000 of 100.000 werkplekken beheren.

Eigenlijk te simpel: iedereen kan het op die manier.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Tussen twee haakjes: omdat het commercieel gezien blijkbaar toch te ingewikkeld is (text typen in plaats van met de muis klikken), ga ik volgende week een uitgebreide GUI met een hele hoop wizards maken, zodat ook de mensen die liever klikken dan typen aan hun trekken kunnen komen.

En om het verkooptechnisch nog interessanter te maken, ga ik een beheerscherm maken waarmee iedere helpdeskmedewerker echt *ALLE* informatie over de computer en de gebruiker bij de hand heeft als hij opgebeld wordt met een probleem. Ik ga je zelfs vertellen welke kaart er in PCI-slot #3 zit, en voor hoeveel procent de accu van een notebook nog stroom heeft. :)

En voor de managers ga ik er voor zorgen, dat ze de meest waanzinnige filters op al die data kunnen loslaten en grafieken kunnen maken zoveel hun hartje begeert. Ik denk niet, dat ze iets kunnen verzinnen dat ze ook niet op het scherm kunnen toveren, eventueel tegen betaling (ik moet leren om meer commercieel te denken) :D

Nou, vertel mij nu maar eens, dat je dat beter doet!!!

>:)

O ja, als ik er ook geld mee kan verdienen, ga ik ook een module maken, waarmee je ook alle routers, switches, servers, bridges en whatever vanaf een beheermodule kunt laten opzitten en pootjes geven. Niet zo moeilijk, maar ik zet er wel een password op, want voor je het weet heeft iemand van de helpdesk je hele netwerk om zeep geholpen!

Maar geen nood: ook daar kun je (tegen extra betaling) een oplossing voor krijgen. :P

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
Verwijderd schreef op 25 April 2003 @ 02:37:

Je kan ervanuitgaan dat TCO evenredig minder belangrijk wordt ten op zichte van de grootte van een bedrijf. Hoe meer mensen/panden/$$$ per bedrijf, hoe minder er naar TCO wordt gekeken en meer naar functionaliteit van de hele bende.
Ik denk dat het juist het tegenovergestelde is. Met de toenamen van een onderneming stijgen de kosten. Meer applicaties, meer servers, beter en duurder personeel, dure SAN oplossingen, betere en stabielere verbindingen etc etc.

TCO is juist een hot item aangezien het bij sommige bedrijven kan oplopen tot meer dan 60% van het budget. Dit is ook de reden waarom er nu bijvoorbeeld bij veel grote bedrijven wordt gekeken of open source software geen mogelijkheid is.
Ook outsourcing van interne afdelingen speelt hierbij een grote rol (Dit zodat je beter kan sturen en extra kosten niet doorbelast krijgt zoals bijv. opleidingskosten van het personeel)

Als je kijkt bij de onderneming waar ik nu zit (100.000+ werknemers)
per seat +/- 1500 euro per jaar. En dit is dus alleen werkplekondersteuning (windows, office en lotus notes) . Al het andere wordt extra belast.
Dus tel maar uit je winst.

  • mutsje
  • Registratie: September 2000
  • Laatst online: 23-04 19:36

mutsje

Certified Prutser

Je kunt een TCO ook van een andere manier benaderen.
Huidige organisatie kijken wat je kunt automatiseren=minder personeel
Kijken welke servers absoluut niks lopen te doen meer erop zitten=minder servers
Kijken hoe je overhead(niet beherend personeel t.o.v beherend personeel) kunt inkrimpen.

In elke grote organisatie is de meest kosten verslindede factor overhead. Diegene die geen geld binnenbrengen maar het met bakken uitgeven.

Helaas is dit in elk bedrijf bijna zo.

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
mutsje schreef op 25 april 2003 @ 10:58:

Huidige organisatie kijken wat je kunt automatiseren=minder personeel

--> Heeft geen gevolgen voor de TCO die blijft hetzelfde of stijgt zelfs door nieuwe software, hardware e.d. Je haal nl. de workforce weg en niet het beheer.


Kijken welke servers absoluut niks lopen te doen meer erop zitten=minder servers.

--> In grote mate afhankelijk van de grote van de onderneming. Meer panden vragen bijv. om meer infra. (je hebt gelijk als het om middelgrote ondernemingen gaat)


Kijken hoe je overhead(niet beherend personeel t.o.v beherend personeel) kunt inkrimpen.

--> ICT is niet alleen beheer vergeet het niet er zitten veel meer facetten bij. Neem ITIL als voorbeeld. (niet dat dat heilig is trouwens)

In elke grote organisatie is de meest kosten verslindede factor overhead. Diegene die geen geld binnenbrengen maar het met bakken uitgeven.

--> Voornl ICT afdelingen. Klinkt lullig maar kijk maar eens naar de grote bedrijven.

.
Probeer eens uit of the box te denken hier. ICT is een bedrijfsonderdeel. Belangrijk absoluut maar niet heilig. Een hoge TCO betkent dat dit moet worden doorbelast naar de klant met alle bijbehorende prijsverhogingen. Off-shoring voor ontwikkelen en programming is een voorbeeld hoe dit soort kosten omlaag worden gebracht.

  • Koffie
  • Registratie: Augustus 2000
  • Laatst online: 29-04 14:04

Koffie

Koffiebierbrouwer

Braaimeneer

Zeg , DiGuru .. wat wil je nu in hemelsnaam :?
Moet er met alle geweld een topic met jouw naam in PNS staan ofzo ?

Je begint een topic met als onderwerp TCO , maar zet er vervolgens een topicstart neer die nogal erg slecht is :?
Vervolgens begin je over je eigen software te blaaten (again).

Ik begin heel langzaam een klein beetje moe te worden van de nietszeggende topics die je opent, maar ik kan het mis hebben.

Tijd voor een nieuwe sig..


  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

DiGuru schreef op 25 April 2003 @ 03:15:
Bij mijn beheer- en distributiesysteem, heb je 1 executable van 750k, die in de netlogon directory staat, samen met wat ini-files. De primaire ini-file ziet er zo uit:
Je schijnt nogal graag commentaar te willen krijgen over je management tool. Even wat opmerkingen:

• Je gebruikt een propietary oplossing om drives te mappen, iets wat ik met standaard tools ook kan. Jouw executable is 750k. net.exe + net1.exe zijn samen nog geen 250k, en staan lokaal op de PC, itt op een share. Lokaal vs. remote (FR, 64kbit) scheelt nogal.
• Zelfde verhaal met printers. Con2prt is een stuk kleiner dan jouw oplossing.
• Ik zie geen redundancy. Je geeft een time server op (wat nou als ik een gelaagd systeem wil hebben waar afhankelijk van de username een andere timesource gepakt wordt?)
• Je geeft handmatig een Start Menu folder op terwijl dit perfect via de Shell API op te vragen is.
• Je bouwt een group systeem na, wat los staat van het domain. Waarom je dit doet,
• Ik zie je met je scripts prutsen in de HKLM - houdt dit in dat jouw script onder een elevated account draait, of is dit de werkelijke reden dat iedereen maar local admin is in jouw organisatie?

Het is leuk dat je wat API's aan kan roepen - maar van wat je tot nu toe laat zien, zie ik een systeem wat allerlei standaard built-in functies emuleert met een niet standaard, propietary systeem met allerlei restricties (een user-level applicatie die de registry aanpast is altijd minder krachtig dan een policy, bv). Als ik zoiets zou willen, ga ik wel met KiX of VBscript aan de slag. Niet dat alles wat je tot nu toe hebt laten zien, niet met batch-scripting kan hoor.

  • Predator
  • Registratie: Januari 2001
  • Laatst online: 19:38

Predator

Suffers from split brain

Dat soort dingen wil ik hier niet zien, dit voegt helemaal niets te aan deze discussie, is offtopic en aanprijzing van een eigen product.

Ofwel hou je hier een goede ontopic discussie met duidelijke argumentatie, ofwel gaat dit topic dicht.


/Koffie is me voor ;(

[ Voor 4% gewijzigd door Predator op 25-04-2003 13:06 ]

Everybody lies | BFD rocks ! | PC-specs


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Ok. TCO. Mijn excuses.

De belangrijkste eis bij TCO is (uiteraard) het drukken van de kosten. Je moet er dus eerst voor zorgen, dat het gehele netwerkbeheer dan ook gebeurt door de beheerders, en dat de gewone gebruikers er nooit mee te maken hebben. Dus we moeten de tijd dat de gebruikers niet met hun werk bezig zijn maar met hun computer proberen te elimineren. Want dat is meestal de grootste kostenpost, die ook het moeilijkste is aan te pakken.

Als je het beheer dan centraal hebt, kun je alle kosten op een rijtje zetten en schrappen. En dan blijkt meestal dat de kosten van de hardware procentueel helemaal niet zo hoog zijn als gedacht. (Alhoewel sommige routers, servers en SAN-oplossingen wel extreem duur kunnen zijn.)

De licenties zijn meestal duurder dan de hardware. En je kunt daar op bezuinigen, er zijn veel gratis alternatieven. Maar als je die gebruikt om een bestaand product op de werkplek te vervangen, dan moeten alle mensen op cursus of de verstopte tijd komt weer terug. Het is dus alleen op lange termijn interessant, op korte termijn zijn cursussen meestal duurder dan de licenties.

Wat wel een geweldige besparing betekent, is het verminderen van de hoeveelheid werk van de IT-ers. Als bijvoorbeeld de storingen met 50% afnemen, neemt ook de tijd dat de gebruikers niet goed kunnen werken met de helft af.

Maar dat is een heel lastig onderwerp: je bent dan als IT-er bezig jezelf overbodig te maken. Hetzelfde geld ook voor hele dure hardware: er zijn genoeg alternatieven die veel goedkoper zijn (koop bijvoorbeeld 2 of 3 hele vette computers met raid-arrays in plaats van een hele grote server van een A-merk en je houd geld over), maar dure hardware is natuurlijk veel leuker voor de IT-ers.

Ook voor de beheersbaarheid is het zo'n beetje hetzelfde verhaal, je kunt er bijvoorbeeld voor kiezen al je software op Citrix servers te draaien. Dan heb je het volledig onder controle. Maar dan heb je hele grote en dure servers nodig en moet je heel veel tijd besteden om die software op de juiste manier aan de praat te krijgen. Dat is vrijwel zeker vele malen duurder dan diezelfde software op de clients te draaien.

TCO is dus meestal voor de IT-ers slecht nieuws.

Verwijderd

Koffie schreef op 25 April 2003 @ 12:45:
Zeg , DiGuru .. wat wil je nu in hemelsnaam :?
Moet er met alle geweld een topic met jouw naam in PNS staan ofzo ?

Je begint een topic met als onderwerp TCO , maar zet er vervolgens een topicstart neer die nogal erg slecht is :?
Vervolgens begin je over je eigen software te blaaten (again).

Ik begin heel langzaam een klein beetje moe te worden van de nietszeggende topics die je opent, maar ik kan het mis hebben.
ach laat hem in de waan als die denkt met zijn scriptje de tco omlaag kan brengen...
er zijn meerdere applicaties, die ontwikkelt zijn door honderden mensen en nog niet altijd perfect functioneren en echt wel iets groter zijn dan een 750kb script...

  • GBits
  • Registratie: Augustus 1999
  • Laatst online: 28-01-2025
In het kader van TCO wil je juist NIET dat zo iemand als DigiGuru met zijn eigen tooltje aan het klussen gaat (met alle respect).
Stel je voor dat je tegen een boom aanrijd, hoe zit het dan met de continuiteit?

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
FF paar opmerkingen (ík weet het ben een zeur ;) )
DiGuru schreef op 25 april 2003 @ 14:08:

De belangrijkste eis bij TCO is (uiteraard) het drukken van de kosten.

--> Zou eerder zeggen het beheersbaar houden van de kosten.


Als je het beheer dan centraal hebt, kun je alle kosten op een rijtje zetten en schrappen. En dan blijkt meestal dat de kosten van de hardware procentueel helemaal niet zo hoog zijn als gedacht. (Alhoewel sommige routers, servers en SAN-oplossingen wel extreem duur kunnen zijn.)

--> Is teveel afhankelijk van de geografische spreiding. (niet dat het onmogelijk is)Denk niet dat ze bijvoorbeeld in Oezbekistan een T1 hebben liggen


Het is dus alleen op lange termijn interessant, op korte termijn zijn cursussen meestal duurder dan de licenties.

--> Voor een OS ja absoluut maar applicaties niet. De RTO is dan te laag. En gratis werkt meestal voor grote bedrijven toch net iets anders.

Wat wel een geweldige besparing betekent, is het verminderen van de hoeveelheid werk van de IT-ers. Als bijvoorbeeld de storingen met 50% afnemen, neemt ook de tijd dat de gebruikers niet goed kunnen werken met de helft af.

--> Weer valt het me op dat beheer van IT hier wordt genomen en niet de hele ICT kant. Je bent nl van teveel zaken afhankelijk. Software, hardware en niet te vergeten de gebruikers.

(koop bijvoorbeeld 2 of 3 hele vette computers met raid-arrays in plaats van een hele grote server van een A-merk en je houd geld over)

--> Heeft te maken met garantie bepalingen en support. Bij het klein en midden berdijf zou dit idd geen probleem zijn.

Ook voor de beheersbaarheid is het zo'n beetje hetzelfde verhaal, je kunt er bijvoorbeeld voor kiezen al je software op Citrix servers te draaien. Dan heb je het volledig onder controle. Maar dan heb je hele grote en dure servers nodig en moet je heel veel tijd besteden om die software op de juiste manier aan de praat te krijgen. Dat is vrijwel zeker vele malen duurder dan diezelfde software op de clients te draaien.


--> Klopt maar dan komt het licentieverhaal weer om de hoek kijken.

TCO is dus meestal voor de IT-ers slecht nieuws.

--> Nou nee juist niet. TCO is juist DE manier voor ICT afdelingen om zichzelf te bewijzen. Kijken of de kosten onder controle zijn en waar de knelpunten liggen.
Met een duidelijk TCO kun je dus ook aangeven dat er nog ruimte is voor uitbereiding.
Moet nog wel beter leren quoten :)

  • GA!S
  • Registratie: Maart 2000
  • Niet online

GA!S

295 g/km

DiGuru schreef op 25 April 2003 @ 14:08:
Hetzelfde geld ook voor hele dure hardware: er zijn genoeg alternatieven die veel goedkoper zijn (koop bijvoorbeeld 2 of 3 hele vette computers met raid-arrays in plaats van een hele grote server van een A-merk en je houd geld over), maar dure hardware is natuurlijk veel leuker voor de IT-ers.
Wil je nou serieus beweren dat dikke IBM/Dell/HP/Compaq servers alleen worden neergezet omdat de IT-ers het leuk speelgoed vinden?

de betaler vervuilt


  • Taigu
  • Registratie: Februari 2002
  • Laatst online: 25-04 08:52
DiGuru schreef op 25 April 2003 @ 14:08:

De belangrijkste eis bij TCO is (uiteraard) het drukken van de kosten. Je moet er dus eerst voor zorgen, dat het gehele netwerkbeheer dan ook gebeurt door de beheerders, en dat de gewone gebruikers er nooit mee te maken hebben. Dus we moeten de tijd dat de gebruikers niet met hun werk bezig zijn maar met hun computer proberen te elimineren. Want dat is meestal de grootste kostenpost, die ook het moeilijkste is aan te pakken.
Waarom moet de TCO perse gedrukt worden ? Als je via een wat hogere TCO andere kosten kunt drukken (personeel-, proceskosten), waarom niet ?
Je moet er dus eerst voor zorgen,
...
Als je het beheer dan centraal hebt, kun je alle kosten op een rijtje zetten en schrappen.
Vertel eens wat nieuws....
Wat wel een geweldige besparing betekent, is het verminderen van de hoeveelheid werk van de IT-ers. Als bijvoorbeeld de storingen met 50% afnemen, neemt ook de tijd dat de gebruikers niet goed kunnen werken met de helft af.
Als het werk van je IT-afdeling kunt verminderen, is er iets structureel fout in het management... Ik neem aan dat je mensen aanneemt voor het werk wat je hebt en niet werk maakt voor je mensen. Kromme beredenatie trouwens dat ELKE storing ervoor zorgt dat een gebruiker niet goed kan werken.
Maar dat is een heel lastig onderwerp: je bent dan als IT-er bezig jezelf overbodig te maken.
IT blijft veranderen dus werk zal er altijd zijn....
Hetzelfde geld ook voor hele dure hardware: er zijn genoeg alternatieven die veel goedkoper zijn (koop bijvoorbeeld 2 of 3 hele vette computers met raid-arrays in plaats van een hele grote server van een A-merk en je houd geld over), maar dure hardware is natuurlijk veel leuker voor de IT-ers.
Zet jij toch lekker kloonspul zonder goede support en management mogelijkheden neer. Als in mijn HP server het laatste bitje (welke in principe nooit wordt gebruikt) in een geheugenmodule defect is, ziet mijnj mgmt software dat en op basis daarvan kan ik garantie claimen. Vervolgens gooi ik de server plat wanneer mij dat uitkomt.... Buiten dat zet ik vraagtekens over de performance van bij elkaar geraapte pc's.. Ik zeg niet dat het per definitie slechter is, maar lang niet altijd beter.
Ook voor de beheersbaarheid is het zo'n beetje hetzelfde verhaal, je kunt er bijvoorbeeld voor kiezen al je software op Citrix servers te draaien. Dan heb je het volledig onder controle. Maar dan heb je hele grote en dure servers nodig en moet je heel veel tijd besteden om die software op de juiste manier aan de praat te krijgen. Dat is vrijwel zeker vele malen duurder dan diezelfde software op de clients te draaien.
Citrix heb ik bij een klant draaien op een dual pII350, wat nou dure grote servers ?
TCO is dus meestal voor de IT-ers slecht nieuws.
TCO is gewoon onderdeel van je werk. NOFI, maar als je zulke topics post, zorg dan voor een solide basis en ga niet wat in de rondte zitten blaten. TCO is een management kwestie, heb jij geen ene reet mee te maken.

Cling to truth and it turns into falsehood. Understand falsehood and it turns into truth.


  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

DiGuru schreef op 25 april 2003 @ 14:08:
Ok. TCO. Mijn excuses.

De belangrijkste eis bij TCO is (uiteraard) het drukken van de kosten. Je moet er dus eerst voor zorgen, dat het gehele netwerkbeheer dan ook gebeurt door de beheerders, en dat de gewone gebruikers er nooit mee te maken hebben. Dus we moeten de tijd dat de gebruikers niet met hun werk bezig zijn maar met hun computer proberen te elimineren. Want dat is meestal de grootste kostenpost, die ook het moeilijkste is aan te pakken.

Als je het beheer dan centraal hebt, kun je alle kosten op een rijtje zetten en schrappen. En dan blijkt meestal dat de kosten van de hardware procentueel helemaal niet zo hoog zijn als gedacht. (Alhoewel sommige routers, servers en SAN-oplossingen wel extreem duur kunnen zijn.)

De licenties zijn meestal duurder dan de hardware. En je kunt daar op bezuinigen, er zijn veel gratis alternatieven. Maar als je die gebruikt om een bestaand product op de werkplek te vervangen, dan moeten alle mensen op cursus of de verstopte tijd komt weer terug. Het is dus alleen op lange termijn interessant, op korte termijn zijn cursussen meestal duurder dan de licenties.
Je vergeet hier dat je ook nog de kennis in huis moet hebben om het te beheren, of je beheerders om moet scholen, of externe beheer aan moet gaan trekken
Wat wel een geweldige besparing betekent, is het verminderen van de hoeveelheid werk van de IT-ers. Als bijvoorbeeld de storingen met 50% afnemen, neemt ook de tijd dat de gebruikers niet goed kunnen werken met de helft af.
Een storing houdt niet altijd in dat een gebruiker niet goed kan werken, meestal is er maar een beperking in de functionaliteit van de werkplek, en kan de gebruiker door met werk. 50% reductie in het aantal storingen betekend dus niet automatisch dat de tijd dat de gebruikers niet goed kunnen werken evenredig af neemt.
Maar dat is een heel lastig onderwerp: je bent dan als IT-er bezig jezelf overbodig te maken. Hetzelfde geld ook voor hele dure hardware: er zijn genoeg alternatieven die veel goedkoper zijn (koop bijvoorbeeld 2 of 3 hele vette computers met raid-arrays in plaats van een hele grote server van een A-merk en je houd geld over), maar dure hardware is natuurlijk veel leuker voor de IT-ers.
Je houdt dan op korte termijn geld over, maar wat about de lange termijn, wat is de TCO van dergelijke goedkopere apparatuur?
Ook voor de beheersbaarheid is het zo'n beetje hetzelfde verhaal, je kunt er bijvoorbeeld voor kiezen al je software op Citrix servers te draaien. Dan heb je het volledig onder controle. Maar dan heb je hele grote en dure servers nodig en moet je heel veel tijd besteden om die software op de juiste manier aan de praat te krijgen. Dat is vrijwel zeker vele malen duurder dan diezelfde software op de clients te draaien.

TCO is dus meestal voor de IT-ers slecht nieuws.
TCO is IMHO een beetje overhyped de laatste tijd. Het is een heel belangrijke factor, maar niet zaligmakend, andere factoren die meespelen zijn gebruikersvriendelijkheid, features, compatibiliteit, uitwisselbaarheid etc. etc.
Star/OpenOffice kan bijvoorbeeld best een lage TCO hebben, maar zolang de uitwisselbaarheid met MS Office beperkt is, is het voor veel organisaties, ondanks de lage TCO geen optie.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Danster schreef op 25 april 2003 @ 14:43:
FF paar opmerkingen (ík weet het ben een zeur ;) )
--> Zou eerder zeggen het beheersbaar houden van de kosten.
Ja, dat is de beste insteek.
--> Is teveel afhankelijk van de geografische spreiding. (niet dat het onmogelijk is)Denk niet dat ze bijvoorbeeld in Oezbekistan een T1 hebben liggen
Dat hangt maar af van de manier waarop je het beheer doet. Natuurlijk zet je daar wel lokaal iets van een server neer. NAS is leuk in dit verband, niet duur en weinig onderhoud, dat je normaal helemaal remote kan doen.
--> Voor een OS ja absoluut maar applicaties niet. De RTO is dan te laag. En gratis werkt meestal voor grote bedrijven toch net iets anders.
Inderdaad. De meestgebruikte applicatie (Microsoft Office) is bijvoorbeeld eigenlijk niet te vervangen. De bedrijven hebben meer vertrouwen in Microsoft dan in de een of andere gratis software.
--> Weer valt het me op dat beheer van IT hier wordt genomen en niet de hele ICT kant. Je bent nl van teveel zaken afhankelijk. Software, hardware en niet te vergeten de gebruikers.
Mee eens. Bij de meeste grote bedrijven zit het meeste geld bijvoorbeeld in zelfgemaakte applicaties. Dat begint vaak met een macrootje in Office, dan moet dat ineens ook onderhouden worden, op een gegeven moment moet de hele afdeling dat gaan gebruiken en wordt er een programmeur ingeschakeld, die natuurlijk braaf alle wijzigingen van iedereen programmeert en na een tijdje onmisbaar is geworden.

Ook maatwerksoftware volgt vaak een vergelijkbaar traject.
--> Heeft te maken met garantie bepalingen en support. Bij het klein en midden berdijf zou dit idd geen probleem zijn.
Inderdaad.
--> Klopt maar dan komt het licentieverhaal weer om de hoek kijken.

--> Nou nee juist niet. TCO is juist DE manier voor ICT afdelingen om zichzelf te bewijzen. Kijken of de kosten onder controle zijn en waar de knelpunten liggen.
Met een duidelijk TCO kun je dus ook aangeven dat er nog ruimte is voor uitbereiding.
Dat is inderdaad zoals er meestal naar gekeken wordt. Dat geldt trouwens voor alle afdelingen, niet alleen de IT. Niemand gaat in zijn eigen budget snijden.
Moet nog wel beter leren quoten :)
Geeft niets ;)

Verwijderd

DiGuru schreef op 25 april 2003 @ 02:46:
We zij nu meer dan 3 jaar verder. Alle apparatuur en programmatuur is verouderd en afgeschreven. "We moeten wat. Maar WAT?!? Ik heb geen zin in meer van die eindeloze ellende, die nooit goed werkt en ons een enorm vermogen kost. Deze keer moet het wel werken!"

Inderdaad. Daar ben ik het helemaal mee eens. Maar dat betekent ook meteen het failissement voor alle "gerenommeerde" bedrijven in dat vakgebied (zoals Getronics).
beetje simpel gedacht... alsof gerenommeerde bedrijven het nooit werkend krijgen... het probleem met grote ict organisaties is wel dat er vaak verkopers zijn die geen ballen verstand van automatisering hebben en de klant van alles verkopen, zelfs als het niet technisch mogelijk is. wat resulteert in opmerkingen zoals deze...

edit:
buiten dat... als je hetzelfde werk moet doen zonder comps (zelfs als die eindeloze ellende betekent) gaan de kosten (personeel etc) nog veel meer omhoog...

[ Voor 11% gewijzigd door Verwijderd op 25-04-2003 15:09 ]


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Zer0 schreef op 25 April 2003 @ 14:56:
Je vergeet hier dat je ook nog de kennis in huis moet hebben om het te beheren, of je beheerders om moet scholen, of externe beheer aan moet gaan trekken
Dat is inderdaad altijd een heel lastig punt. Dat is bijvoorbeeld ook een belangrijke reden waarom een bedrijf niet snel zal overstappen van MS servers naar iets anders.
Een storing houdt niet altijd in dat een gebruiker niet goed kan werken, meestal is er maar een beperking in de functionaliteit van de werkplek, en kan de gebruiker door met werk. 50% reductie in het aantal storingen betekend dus niet automatisch dat de tijd dat de gebruikers niet goed kunnen werken evenredig af neemt.
Dat maakt niet uit. Als het aantal storingen met de helft verminderd, kost het ook nog maar de helft. Of je moet net alleen de storingen elimineren die toch geen impact hebben. Beste manier: gewoon niet rapporteren.
Je houdt dan op korte termijn geld over, maar wat about de lange termijn, wat is de TCO van dergelijke goedkopere apparatuur?
Ja, daar gaat het natuurlijk om. Het heeft ook te maken met hoe je daar tegenaan kijkt. Je kunt proberen om hele goede A-merk spullen te gebruiken en te proberen te garanderen dat het nooit fout gaat. Als het dan toch fout gaat, kun je dat A-merk de schuld geven.

Je kunt ook "wegwerp" apparatuur gebruiken. Koop overal wat meer van dan je eigenlijk nodig hebt. Gaat er iets kapot, dan vervang je het gewoon. En als er geen garantie meer op zit gooi je het gewoon weg. Je gaat dan niet proberen om alle individuele onderdelen redundant te maken, maar het hele netwerk. Valt er een server uit, dan moet een andere dat overnemen. En je moet in staat zijn binnen een half uur een kapot onderdeel te vervangen en weer aan de praat te krijgen.
TCO is IMHO een beetje overhyped de laatste tijd. Het is een heel belangrijke factor, maar niet zaligmakend, andere factoren die meespelen zijn gebruikersvriendelijkheid, features, compatibiliteit, uitwisselbaarheid etc. etc.
Star/OpenOffice kan bijvoorbeeld best een lage TCO hebben, maar zolang de uitwisselbaarheid met MS Office beperkt is, is het voor veel organisaties, ondanks de lage TCO geen optie.
Helemaal mee eens.

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
Ff off topic
Verwijderd schreef op 25 April 2003 @ 15:07:
[...]

edit:
buiten dat... als je hetzelfde werk moet doen zonder comps (zelfs als die eindeloze ellende betekent) gaan de kosten (personeel etc) nog veel meer omhoog...
Hier wil ik met je nog wel eens over in discussie gaan.
ICT heeft nl geleid tot een verhoogde prodictiviteit van de individuele medwerker.
De kosten van de medewerker is weer afhankelijk van z'n specialisme.

Probeer eens een wereld voor te stellen zonder pc's. Iedereen werkt z'n beetje hetzelfde..geen grote verschillen in salarissen etc. Dit zou dus kunnen (zeg dus niet moeten) leiden tot een veel stabielere economie. Geen absurde loonsverhogingen etc.

Maar goed dat is een beetje utopisch dusss

En weer on.

TCO moet je gewoon zien als een wijze van inzicht. Overhyped is het zeker niet.
Het is tijd voor de ICT wereld om een huishoudboekje bij te houden. De concurentie op die markt is moordend en zo kunnen ze zich onderscheidden.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

DiGuru schreef op 25 april 2003 @ 14:08:
Hetzelfde geld ook voor hele dure hardware: er zijn genoeg alternatieven die veel goedkoper zijn (koop bijvoorbeeld 2 of 3 hele vette computers met raid-arrays in plaats van een hele grote server van een A-merk en je houd geld over), maar dure hardware is natuurlijk veel leuker voor de IT-ers.
Dit is puur een theoretisch verhaal, en hier komt men steeds meer van terug. Als ik een Exchange server heb, die dubbelt als file en print server, en bij gelegenheid ook nog de ERP database draait, en ik moet daar iets op doen wat downtime veroorzaakt is alles down. Hiermee verdien je een paar kleine servers snel terug.

Los hiervan - reken de kosten van 2 kleine Exchange servers eens uit, versus 1 grotere Exchange server ?
Ook voor de beheersbaarheid is het zo'n beetje hetzelfde verhaal, je kunt er bijvoorbeeld voor kiezen al je software op Citrix servers te draaien. Dan heb je het volledig onder controle.
Maar dan heb je hele grote en dure servers nodig en moet je heel veel tijd besteden om die software op de juiste manier aan de praat te krijgen. Dat is vrijwel zeker vele malen duurder dan diezelfde software op de clients te draaien.
Sorry, maar ik denk dat je echt niet goed weet waar je over praat. Hieruit blijkt duidelijk dat je of geen praktijk ervaring hiermee hebt, ofdat je het Citrix product niet snapt.

Uiteraard is een Citrix server een specialistische bezigheid, maar het kost velen, velen malen minder dan software uit gaan rollen op een PC.

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
De fout die hier wordt gemaakt in dit topic is door TCO meteen in de praktijk te willen omzetten.

Management evalueert de TCO. Dan volgen er onderzoeken op de verschillende onderliggende lagen (uitgaande van een lijn-staf organisatie) En die rapporteert de aanbevelingen.

Het is voor het management helemaal niet interessant of het Dell of IBM wordt.
Zij willen weten wat het oplevert. En als de techneuten/consultants e.d. zeggen dit is het beste en hebben het onderbouwd, DAN pas volgen de wijzigingen.

Of de keuze juist is. Tsja de toekomst zal het dan leren

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
buddhole schreef op 25 april 2003 @ 14:50:
Waarom moet de TCO perse gedrukt worden ? Als je via een wat hogere TCO andere kosten kunt drukken (personeel-, proceskosten), waarom niet ?
Dat is een goed punt, en dat is natuurlijk waarom we allemaal computers gebruiken. Automatisering. Maar het gaat toch een beetje krom: een lagere TCO is altijd beter voor een bedrijf. En als je nieuwe toepassingen gaat automatiseren hebben die zelf ook weer een TCO. Je moet dus met alle TCO's van alle bedrijfsonderdelen rekening houden.
Vertel eens wat nieuws....

Als het werk van je IT-afdeling kunt verminderen, is er iets structureel fout in het management... Ik neem aan dat je mensen aanneemt voor het werk wat je hebt en niet werk maakt voor je mensen. Kromme beredenatie trouwens dat ELKE storing ervoor zorgt dat een gebruiker niet goed kan werken.
Dat iemand het werk dat hij of zij doet ook aankan, wil nog niet zeggen dat het ook efficient gebeurd. Vooral in de IT (is toch ook nog een jonge industrie) zie je op technisch gebied nog veel dingen waarvan je je kunt afvragen of dat nou niet beter kan.
IT blijft veranderen dus werk zal er altijd zijn....
Helemaal mee eens. Als je een mooi stukje werk aflevert, zijn er altijd nog wel 10 andere dingen die eigenlijk eens moeten gebeuren.
Zet jij toch lekker kloonspul zonder goede support en management mogelijkheden neer. Als in mijn HP server het laatste bitje (welke in principe nooit wordt gebruikt) in een geheugenmodule defect is, ziet mijnj mgmt software dat en op basis daarvan kan ik garantie claimen. Vervolgens gooi ik de server plat wanneer mij dat uitkomt.... Buiten dat zet ik vraagtekens over de performance van bij elkaar geraapte pc's.. Ik zeg niet dat het per definitie slechter is, maar lang niet altijd beter.
Dat is inderdaad belangrijk. Maar dat kun je natuurlijk ook met kloontjes. Niet met de Compaq Insight Manager, maar er zijn andere programma's die dat ook doen. En het is maar de vraag of dat interessant is, je kunt ook gewoon wachten tot hij omvalt. Moet je wel je netwerk zodanig inrichten dat het gewoon doordraait en hem vervangen voordat er ook een volgende server platgaat.

De tijd die je besteed aan het monitoren van je servers is ook een onderdeel van de TCO.
Citrix heb ik bij een klant draaien op een dual pII350, wat nou dure grote servers ?
Is het beter of goedkoper dan die software rechtstreeks op de clients draaien?
TCO is gewoon onderdeel van je werk. NOFI, maar als je zulke topics post, zorg dan voor een solide basis en ga niet wat in de rondte zitten blaten. TCO is een management kwestie, heb jij geen ene reet mee te maken.
Waarom niet? Ook de managers kunnen geen goede beslissingen nemen als ze niet de juiste informatie hebben. Het is heel belangrijk om je manager goed op de hoogte te houden van alle mogelijkheden.

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
[quote]DiGuru schreef op 25 April 2003 @ 15:38:
[...]


Dat is een goed punt, en dat is natuurlijk waarom we allemaal computers gebruiken. Automatisering. Maar het gaat toch een beetje krom: een lagere TCO is altijd beter voor een bedrijf. En als je nieuwe toepassingen gaat automatiseren hebben die zelf ook weer een TCO. Je moet dus met alle TCO's van alle bedrijfsonderdelen rekening houden.

[quote]


Hoe lager de TCO hoe hoger het bedrijfsresultaat.

very basic bedrijfseconomie: Omzet-kosten=winst


Maar TCO is een term voor alle kosten op ICT gebied.
Andere onderdelen kennen dit woord niet. Meestal spreek je dan van Cost management

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
elevator schreef op 25 april 2003 @ 15:26:
Dit is puur een theoretisch verhaal, en hier komt men steeds meer van terug. Als ik een Exchange server heb, die dubbelt als file en print server, en bij gelegenheid ook nog de ERP database draait, en ik moet daar iets op doen wat downtime veroorzaakt is alles down. Hiermee verdien je een paar kleine servers snel terug.
Inderdaad. En daar je toch een backup moet maken, is het zinvol (zeker voor grote bedrijven met meerdere vestigingen) om twee servers neer te zetten die naadloos elkaars werk overnemen. Als je de data dan ook periodiek naar een derde lokatie dumpt, ben je ook van die akelige tapes af.
Los hiervan - reken de kosten van 2 kleine Exchange servers eens uit, versus 1 grotere Exchange server ?
Als je de aanschafkosten tegen elkaar afzet zal het waarschijnlijk niet veel uitmaken, maar ik weet zo niet uit mijn hoofd hoe het met de Exchange licenties zit.
Sorry, maar ik denk dat je echt niet goed weet waar je over praat. Hieruit blijkt duidelijk dat je of geen praktijk ervaring hiermee hebt, ofdat je het Citrix product niet snapt.

Uiteraard is een Citrix server een specialistische bezigheid, maar het kost velen, velen malen minder dan software uit gaan rollen op een PC.
Inderdaad. En het is nog vele malen goedkoper als je die software distribueert. Dan gaat dat uitrollen vanzelf.

  • Brothar
  • Registratie: Oktober 2000
  • Laatst online: 04-02 09:14

Brothar

meester

En ik ben nu benieuwd welk deel van (ook) deze discussie we straks zien in de folder / missiestatement van DiGuru en zijn tool.
(En om even bij zijn off-topic opmerkingen te blijven: waren goeroes geen navelstaarders ? :) )

Overigens ben ik het eens met de opmerkingen van danster. TCO zie ik als een management tool, bedoeld om de kosten te kunnen verantwoorden, en inzichtelijk te maken.
Elk bedrijf is anders, en elke situatie is anders. Dus per definitie een lage(re) TCO in het vooruitzicht stellen is bullshit (m.i.).

[ Voor 12% gewijzigd door Brothar op 25-04-2003 16:01 ]

eagle


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
We gebruiken computers om dingen te automatiseren. Lijkt me een open deur om te proberen het hele beheer van de computers ook te automatiseren. Daar zijn veel beheerders dan ook druk mee bezig. Daar gaat die TCO nu net over: hoe bouw je je netwerk zo, dat je gewoon een weekje op vakantie kunt gaan met een gerust hart dat alles gewoon doordraait, zolang de hele tent niet afbrand of de stroom uitvalt, natuurlijk. :)

En zelfs daarmee kun je rekening houden, je moet dan ook weer kijken wat de goedkoopste oplossing is.

Of zie ik het nou fout?

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
Nou nu sla je de plank weer mis..
Je was net op weg de juiste richting te vinden.

Je blijft TCO houden al zou je ALLES automatiseren.

Het gaat erom de TCO zo laag mogelijk te krijgen zonder dat het bedrijf
in ernstige problemen komt. (continuiteit en risicobeheersing)

afschrijvingen zitten ook in TCO bijvoorbeeld. Dus al het personeel eruit is geen oplossing.

  • TheGhostInc
  • Registratie: November 2000
  • Niet online
Wat me vooral opvalt is dat iedereen heel kort door de bocht gaat:

De helft minder problemen betekent de helft minder IT mensen nodig.

Denk dat je daar snel van terug komt, er blijven altijd problemen komen, hoe beter het werkt, des te complexer worden de vragen van de klanten.

Als je de data dan ook periodiek naar een derde lokatie dumpt, ben je ook van die akelige tapes af.

Wat is er zo akelig aan tapes? Wat kost het om je complete server in een kluis te stoppen? Wat doe je als je volledige gebouw affakelt? Of vergeet ik even dat je natuurlijk een andere vestiging met een Gbit verbinding had verbonden, die KPN had gesponsord?

BTW. wat kost dat script van jou eigenlijk? Al eens nagerekent wat het kost om dat te laten uitzoeken door iemand die in loondienst staat?

En over "Overgehypedheid van TCO" elke kreet die vaker dan 3x in een zin voorkomt is op dat moment teveel gebruikt. TCO is gewoon het totale bedrag dat onder de streep staat.

Overigens vind ik het opvallend dat je je script als perfect beschrijft, terwijl ik erin al zoveel keuzes tegen kom. Terwijl sommigen gewoon die keuzes niet hebben.
Wat doe je als je met citrix moet werken, of als er andere servers met andere OS-en bereikbaar moeten zijn. Werkt dan alles nog, of blijken de scripts op sommige plaatsen uit te gaan van compatibiliteit, terwijl die er niet is?

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Danster schreef op 25 April 2003 @ 16:15:
Nou nu sla je de plank weer mis..
Je was net op weg de juiste richting te vinden.

Je blijft TCO houden al zou je ALLES automatiseren.

Het gaat erom de TCO zo laag mogelijk te krijgen zonder dat het bedrijf
in ernstige problemen komt. (continuiteit en risicobeheersing)

afschrijvingen zitten ook in TCO bijvoorbeeld. Dus al het personeel eruit is geen oplossing.
Ja, ik ben het helemaal met je eens dat je altijd TCO hebt, al zijn het maar alleen de aanschafkosten van de hardware en de licenties. Maar dat zijn net de twee dingen waar je het minste op kunt bezuinigen.

Als alles altijd goed werkt, elimineer je de grootste kostenpost: de mensen die hun werk niet goed kunnen doen omdat hun computer niet meewerkt.

Als je de storingen hebt geelimineerd, kun je je als beheerclub gaan bezig houden met andere dingen, zoals kijken of je de service aan je klanten (het bedrijf en de gebruikers) kunt verbeteren. En dat is heel erg leuk werk, veel leuker dan de hele dag achter storingen aanrennen!

  • Brothar
  • Registratie: Oktober 2000
  • Laatst online: 04-02 09:14

Brothar

meester

Als beheerclub voorkom je storingen !
En daarna, als zich een storing voordoet die je niet hebt meegenomen bij je voorbereidingen, of bij een calamiteit, pas dan ga je de storing opheffen.

[ Voor 8% gewijzigd door Brothar op 25-04-2003 16:24 ]

eagle


  • squaddie
  • Registratie: Februari 2000
  • Laatst online: 19:01
DiGuru schreef op 25 April 2003 @ 15:38:

[...]

Is het beter of goedkoper dan die software rechtstreeks op de clients draaien?
Hangt af van een aantal factoren die bepalen of Citrix handig is om te gebruiken.

Voorbeeld: Een afdeling van 25 medewerkers gebruiken een bepaald software pakket waar het licensie-model zo is ingericht dat per installeerde versie betaald moet worden. Na onderzoek blijkt dat er maximaal 10 personen tegelijk met het pakket werken. Dus kan het voordeliger zijn om 10 licenties van dat pakket en Citrix te kopen ipv 25 licenties van dat pakket.

Ander voorbeeld: Een bedrijf met meerdere vestigingen in het land maken gebruik van een pakket wat op een server in het hoofdkantoor draait. Echter dit pakket heeft een veel bandbreedte nodig om soepel te werken. Hier kan je de keuze maken tussen het aanschaffen van dure huurlijnen met veel bandbreedte of het pakket op Citrix-servers op het hoofdkantoor te draaien en met goedkopere huurlijnen te werken.

Bovenstaande voorbeelden zijn simpeler weergegeven dan het in werkelijkheid is...

There are never enough hours in a day, but always too many days before saturday.


  • TheGhostInc
  • Registratie: November 2000
  • Niet online
DiGuru schreef op 25 April 2003 @ 16:19:
[...]


Ja, ik ben het helemaal met je eens dat je altijd TCO hebt, al zijn het maar alleen de aanschafkosten van de hardware en de licenties. Maar dat zijn net de twee dingen waar je het minste op kunt bezuinigen.
Maar zeker met citrix en andere constructies kun je daar wel op bezuinigen.

Daarnaast is Office ed. zeker geschikt voor distributie, maar zodra de software specialistischer wordt, nemen de problemen toe.
Vreemde ontwerptools, kennen vaak vreemde installatie en beveiligingssystemen.

Sommige software draait niet eens met een netwerkaansluiting, dan *moet* het systeem standalone zijn. (Omdat bv. een netwerkinstallatie 100k kost en een gewone 1k en je 3 machines nodig hebt.)

[ Voor 193% gewijzigd door TheGhostInc op 25-04-2003 16:29 ]


  • luckyme_
  • Registratie: Mei 2000
  • Niet online
Ik vraag me alleen nog maar af of je eigenlijk wel klanten hebt......

Verwijderd

Is teveel afhankelijk van de geografische spreiding. (niet dat het onmogelijk is)
> Denk niet dat ze bijvoorbeeld in Oezbekistan een T1 hebben liggen
Ik wilde even opmerken dat er wel een T1-verbinding in die omgeving :)

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
TheGhostInc schreef op 25 April 2003 @ 16:18:
Wat me vooral opvalt is dat iedereen heel kort door de bocht gaat:

De helft minder problemen betekent de helft minder IT mensen nodig.

Denk dat je daar snel van terug komt, er blijven altijd problemen komen, hoe beter het werkt, des te complexer worden de vragen van de klanten.
Inderdaad. Als alles goed werkt, komen de klanten met de dingen die ze ook graag een keer zouden willen. Het is heel leuk werk om uit te zoeken of je ze daar blij mee kunt maken.
Als je de data dan ook periodiek naar een derde lokatie dumpt, ben je ook van die akelige tapes af.

Wat is er zo akelig aan tapes? Wat kost het om je complete server in een kluis te stoppen? Wat doe je als je volledige gebouw affakelt? Of vergeet ik even dat je natuurlijk een andere vestiging met een Gbit verbinding had verbonden, die KPN had gesponsord?
Dat zijn inderdaad de dingen waar je rekening mee moet houden. Het hangt er maar van af wat nu voor die klant de beste oplossing is.
BTW. wat kost dat script van jou eigenlijk? Al eens nagerekent wat het kost om dat te laten uitzoeken door iemand die in loondienst staat?
Ik ga het niet meer over mijn eigen spullen hebben, ik hou het algemeen.

Je moet van te voren duidelijke doelstellingen maken, over hetgene dat je wilt bereiken. De twee doelstellingen die ik het beste vond, waren de volgende:

1. Alle storingen moeten geelimineerd of voorkomen worden, de enige dingen waar netwerkbeheer zich mee bezig moet houden zijn Requests For Changes. (ITIL)

2. De gebruiker moet ten alle tijden in staat zijn om zijn of haar werk te doen. Op een (voor zover het de computerwerkplek betreft) manier waar ze zelf tevreden mee zijn.

Om dat aan het einde van de rit te toetsen, is er een enquete gehouden, waaruit bleek dat meer dan 85% van alle mensen tevreden tot zeer tevreden waren over het functioneren van hun computerwerkplek. En de storingen die zich toen nog voordeden waren voor meer dan 95% vragen over het werken met applicaties.

Missie geslaagd.

Als je andere uitgangspunten hebt, moet je ook andere oplossingen maken. Het gaat er maar om wat voor jou en het bedrijf belangrijk is.
En over "Overgehypedheid van TCO" elke kreet die vaker dan 3x in een zin voorkomt is op dat moment teveel gebruikt. TCO is gewoon het totale bedrag dat onder de streep staat.

Overigens vind ik het opvallend dat je je script als perfect beschrijft, terwijl ik erin al zoveel keuzes tegen kom. Terwijl sommigen gewoon die keuzes niet hebben.
Wat doe je als je met citrix moet werken, of als er andere servers met andere OS-en bereikbaar moeten zijn. Werkt dan alles nog, of blijken de scripts op sommige plaatsen uit te gaan van compatibiliteit, terwijl die er niet is?
Ook weer algemeen: Als je een bepaalde manier van werken hebt bedacht en daar een oplossing voor hebt gemaakt, zul je er altijd tegenaanlopen dat iedereen graag de dingen op zijn of haar eigen manier wil doen. Je zult dus consessies moeten doen en er voor zorgen dat dat mogelijk wordt. Als een bedrijf of afdeling het dus essentieel vind, dat er in het startmenu een mapje komt met de naam: "Programma's van <gebruikersnaam>", waarin zijn of haar programma's staan, dan moet je dat mogelijk maken.

Dat net die dingen de meeste tijd en geld kosten doet daar niets aan af. Als ze dat essentieel vinden, moet je daar in voorzien.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
TheGhostInc schreef op 25 april 2003 @ 16:25:
Maar zeker met citrix en andere constructies kun je daar wel op bezuinigen.

Daarnaast is Office ed. zeker geschikt voor distributie, maar zodra de software specialistischer wordt, nemen de problemen toe.
Vreemde ontwerptools, kennen vaak vreemde installatie en beveiligingssystemen.

Sommige software draait niet eens met een netwerkaansluiting, dan *moet* het systeem standalone zijn. (Omdat bv. een netwerkinstallatie 100k kost en een gewone 1k en je 3 machines nodig hebt.)
Dat klopt, er zijn (helaas!) altijd uitzonderingen. En het packagen en distribueren van hele aparte en specialistische applicaties is inderdaad soms enorm lastig. Maar het is meestal toch goedkoper, als je tenminste voldoende gebruikers hebt (en een netwerkaansluiting ;) ).

In het ergste geval distribueer je alleen een snelkoppeling die de setup draait, eventueel vanaf een ge-substitute drive die wijst naar een CD-wisselaar in een server.

En natuurlijk zijn er ook situaties waarin het gebruik van Terminal software zinnig is. Er is helaas geen oplossing die ook altijd de beste is.

Ik denk dat het wel heel erg belangrijk is, dat je een goede algemene oplossing gebruikt, die heel eenvoudig te beheren is en in meer dan 90% van alle gevallen goed werkt. De overige gevallen moet je dan individueel bekijken.

En vergeet ook niet, dat je de tijd die je besteed aan het maken van een speciale, custom oplossing ook mee moet rekenen!

Verwijderd

DiGuru schreef op 25 april 2003 @ 16:19:
[...]
Als je de storingen hebt geelimineerd, kun je je als beheerclub gaan bezig houden met andere dingen, zoals kijken of je de service aan je klanten (het bedrijf en de gebruikers) kunt verbeteren. En dat is heel erg leuk werk, veel leuker dan de hele dag achter storingen aanrennen!
beheer is saai werk om storingen te voorkomen.
troubleshooten is toch het leukst/ meest uitdagend voor een beheerder...

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
Brothar schreef op 25 april 2003 @ 16:23:
Als beheerclub voorkom je storingen !
En daarna, als zich een storing voordoet die je niet hebt meegenomen bij je voorbereidingen, of bij een calamiteit, pas dan ga je de storing opheffen.
Helaas theorie in de praktijk komt dit dus niet voor.
En nee ga niet roepen dat het bij jullie wel zo is want het is niet zo.
Of je netwerk bestaat uit 1 pc met 1 server.
Ik wilde even opmerken dat er wel een T1-verbinding in die omgeving
Hmm..didn't knew that
Als alles altijd goed werkt, elimineer je de grootste kostenpost: de mensen die hun werk niet goed kunnen doen omdat hun computer niet meewerkt.
Het probleem hiervan is dat dit moeilijk te kwantificeren is aan de kant van de niet IT'ers.


Maar nogmaals. Beheer is maar een klein onderdeeltje van TCO er wordt hier teveel nadruk op gelegd tijdens deze discussie. (geen flambait btw)

TCO is een term voor een kostenplaatje. Oftwel bedrijfseconomisch niet technisch.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

DiGuru schreef op 25 April 2003 @ 15:49:
Inderdaad. En daar je toch een backup moet maken, is het zinvol (zeker voor grote bedrijven met meerdere vestigingen) om twee servers neer te zetten die naadloos elkaars werk overnemen. Als je de data dan ook periodiek naar een derde lokatie dumpt, ben je ook van die akelige tapes af.
Ah. Dus we gaan 2 servers neerzetten.

In Cluster veronderstel ik - omdat ze elkaar naadloos overnemen? We doen dit dan met clone hardware (die dure servers waren niet nodig volgens jou). Helaas certificeert Microsoft clone hardware niet voor Clustering, dus zal je evt. support vaarwel mogen zwaaien.

Uitgaande van een rotatie systeem, en een mogelijkheid om +/- 1 jaar terug te gaan (1 volle week ( 1 x full, 4 x diff), dan 4 weken (full) , en dan 12 maanden (full)), ga ik enkele terrabytes aan storage nodig hebben om een simpele 400 gigabyte aan data te backuppen. Overigens vind ik persoonlijk die differential backups maar vervelend, dus jouw strategie doortrekkende, maken we alleen fulls :Y)
Als je de aanschafkosten tegen elkaar afzet zal het waarschijnlijk niet veel uitmaken, maar ik weet zo niet uit mijn hoofd hoe het met de Exchange licenties zit.
Een Exchange 2000 licentie kost zeg een $700, een Enterprise licentie kost $4000. Doordat ik 2 Exchange stores heb, hoef ik minder snel m'n Exchange te upgraden naar een Enterprise, waardoor ik zowiezo al veel goedkoper uit ben.
Inderdaad. En het is nog vele malen goedkoper als je die software distribueert. Dan gaat dat uitrollen vanzelf.
Dit is ontzettend leuk in een LAN - maar in een WAN werkt het net wat anders - wil je software op grote schaal uitrollen in een WAN, zal je op een WAN distributie servers nodig hebben - en die kosten ook weer geld. Bovendien zouden we in jouw situatie alles op 1 server zetten.

Misschien dat je het inderdaad slecht verwoordt - maar je komt op mij over als een boekhouder die het systeembeheer doet van 5 PC's en dat gaat vrij aardig. Dit probeer je nu te vertalen naar een situatie waar het net allemaal wat groter is.

Je kan natuurlijk ook gewoon een troll zijn, die hier ontzettend blij van wordt :/

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
elevator schreef op 25 April 2003 @ 18:33:
[...]

Ah. Dus we gaan 2 servers neerzetten.

In Cluster veronderstel ik - omdat ze elkaar naadloos overnemen? We doen dit dan met clone hardware (die dure servers waren niet nodig volgens jou). Helaas certificeert Microsoft clone hardware niet voor Clustering, dus zal je evt. support vaarwel mogen zwaaien.
Er zijn andere manieren om een cluster te maken, zoals met Linux. Of je kunt NAS servers gebruiken, of kombinaties daarvan. Databases laat je repliceren, etc. Dat zie je ook al vrij vaak in de praktijk, zoals bij providers en mensen die echt waanzinnig grote databases gebruiken (zoals Google). Dat zijn ook allemaal *nix oplossingen. Met Microsoft servers kun je waarschijnlijk beter de zaak mirroren.
Uitgaande van een rotatie systeem, en een mogelijkheid om +/- 1 jaar terug te gaan (1 volle week ( 1 x full, 4 x diff), dan 4 weken (full) , en dan 12 maanden (full)), ga ik enkele terrabytes aan storage nodig hebben om een simpele 400 gigabyte aan data te backuppen. Overigens vind ik persoonlijk die differential backups maar vervelend, dus jouw strategie doortrekkende, maken we alleen fulls :Y)
Als backup oplossing heb je heel wat mogelijkheden. Gewone harddisks zijn per GB qua prijs vergelijkbaar of goedkoper dan tapes. Een linux doos met bergen schijven is ook ideaal in een brandvrije ruimte te zetten, daar hoef je alleen maar bij als er een onderdeel fysiek kapot gaat.
Een Exchange 2000 licentie kost zeg een $700, een Enterprise licentie kost $4000. Doordat ik 2 Exchange stores heb, hoef ik minder snel m'n Exchange te upgraden naar een Enterprise, waardoor ik zowiezo al veel goedkoper uit ben.


[...]

Dit is ontzettend leuk in een LAN - maar in een WAN werkt het net wat anders - wil je software op grote schaal uitrollen in een WAN, zal je op een WAN distributie servers nodig hebben - en die kosten ook weer geld. Bovendien zouden we in jouw situatie alles op 1 server zetten.
Nee, in mijn situatie mag je net zoveel servers gebruiken als je nodig hebt. En we behandelen alle applikatiepakketjes en andere dingen gewoon als data, meer dan een fileserver heb je daarvoor eigenlijk niet nodig. Je moet natuurlijk wel de pakketjes op de andere sites zetten. In het ergste geval kun je om de zoveel tijd een CD bakken en opsturen.

Het grootste probleem zijn de gedeelde agenda van Outlook (Exchange) en applicaties die MS SQL eisen. Anders kun je het allemaal heel gemakkelijk met Linux dozen doen.
Misschien dat je het inderdaad slecht verwoordt - maar je komt op mij over als een boekhouder die het systeembeheer doet van 5 PC's en dat gaat vrij aardig. Dit probeer je nu te vertalen naar een situatie waar het net allemaal wat groter is.

Je kan natuurlijk ook gewoon een troll zijn, die hier ontzettend blij van wordt :/
De meeste dingen zijn heel eenvoudig als je weet hoe ze werken. En een heel simpel systeem schaalt meestal veel beter dan een heel groot en complex systeem. Het is maar hoe je er tegenaan kijkt. En ik ben eigenlijk geen beheerder, maar een programmeur. Ik heb ook geen MCSE gedaan, ik heb gewoon zelf, heel pragmatisch, gekeken hoe het nou eigenlijk in elkaar zit en wat er allemaal bij komt kijken. Het is gewoon allemaal niet zo moeilijk.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

DiGuru schreef op 25 April 2003 @ 19:06:
Er zijn andere manieren om een cluster te maken, zoals met Linux. Of je kunt NAS servers gebruiken, of kombinaties daarvan. Databases laat je repliceren, etc. Dat zie je ook al vrij vaak in de praktijk, zoals bij providers en mensen die echt waanzinnig grote databases gebruiken (zoals Google). Dat zijn ook allemaal *nix oplossingen. Met Microsoft servers kun je waarschijnlijk beter de zaak mirroren.
Maar eerst heb je het over consolideren van servers, en nu haal je Google erbij.Google doet precies het tegenovergestelde wat jij zegt (en Google doet eigenlijk een beetje iets wat al jarenlang een trend is in de IT), namelijk veel lichte servers gebruiken om samen de load te verdelen.

Ik heb je net toch echt horen vermelden dat je alles op zo weinig mogelijk servers wilt hebben :/
Als backup oplossing heb je heel wat mogelijkheden. Gewone harddisks zijn per GB qua prijs vergelijkbaar of goedkoper dan tapes. Een linux doos met bergen schijven is ook ideaal in een brandvrije ruimte te zetten, daar hoef je alleen maar bij als er een onderdeel fysiek kapot gaat.
hp ultrium 400 GB data cartridge kost $120 bij HP.
Ik heb in de PW even gekeken naar de goedkoopste IDE disk van een behoorlijke size. Ik kom dan op de € 152,- kostende IBM 180GB (Deskstar 180GXP, 7200rpm 2MB Cache) uit. Hier koop ik er 2 van (om richting de 400 gig te kunnen).

Leg me nou nog eens uit hoe tapes ook al weer duurder waren - aangezien je met je prijs er ruim 100% boven zit kan ik met een klein aantal tapes gemakkelijk een tapedrive kopen (even los van het feit dat ik geen tientallen IDE disken in één systeem kan proppen).
Nee, in mijn situatie mag je net zoveel servers gebruiken als je nodig hebt.
Ja, net zoveel als we nodig hebben, maar dat zijn er erg weinig. Want de meeste IT'ers kopen er zoveel als speelgoed zei je toch?

Ik pak ff de quote er nog bij:
Hetzelfde geld ook voor hele dure hardware: er zijn genoeg alternatieven die veel goedkoper zijn (koop bijvoorbeeld 2 of 3 hele vette computers met raid-arrays in plaats van een hele grote server van een A-merk en je houd geld over), maar dure hardware is natuurlijk veel leuker voor de IT-ers.
En we behandelen alle applikatiepakketjes en andere dingen gewoon als data, meer dan een fileserver heb je daarvoor eigenlijk niet nodig. Je moet natuurlijk wel de pakketjes op de andere sites zetten. In het ergste geval kun je om de zoveel tijd een CD bakken en opsturen.
Dus we kopen 2 of 3 hele vette computers. Maar we kopen ook servers op alle sites? En die servers beheren zich zelf? Hoeven niet gebacked up te worden. Niet te vervangen? Lustten geen stroom? Ook al is de licentie gratis.
Het grootste probleem zijn de gedeelde agenda van Outlook (Exchange) en applicaties die MS SQL eisen. Anders kun je het allemaal heel gemakkelijk met Linux dozen doen.
Je bent van een betoog over TCO, naar een betoog van server consolidatie, naar een betoog voor OpenSource gegaan. Waar heb jij het in godsnaam over?
De meeste dingen zijn heel eenvoudig als je weet hoe ze werken. En een heel simpel systeem schaalt meestal veel beter dan een heel groot en complex systeem.
Soms zijn dingen complex, omdat er veel mee moet kunnen. Omdat de eisen hoog zijn. Omdat de vragen divers zijn. Omdat de omgeving divers is.
Het is maar hoe je er tegenaan kijkt. En ik ben eigenlijk geen beheerder, maar een programmeur. Ik heb ook geen MCSE gedaan, ik heb gewoon zelf, heel pragmatisch, gekeken hoe het nou eigenlijk in elkaar zit en wat er allemaal bij komt kijken. Het is gewoon allemaal niet zo moeilijk.
Ik denk hierbij maar 1 ding. Schoenmaker hou je bij je leest.

Tis leuk en aardig allemaal, een programmeurtje dat denkt te weten hoe een enterprise te beheren - maar zo werkt het nou eenmaal niet. Jij hebt geen idee wat de reeele vragen, eisen en problemen zijn van een beheerder, ook heb je blijkbaar geen idee van wat nou realistisch is en wat theoretisch allemaal leuk klinkt. Ik denk dat je het beste leuk kan blijven programmeren - misschien vindt je wel een beheerder die zo gek is om jouw ini files in te gaan vullen....

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
elevator schreef op 25 april 2003 @ 19:38:
[...]

Maar eerst heb je het over consolideren van servers, en nu haal je Google erbij.Google doet precies het tegenovergestelde wat jij zegt (en Google doet eigenlijk een beetje iets wat al jarenlang een trend is in de IT), namelijk veel lichte servers gebruiken om samen de load te verdelen.
Of je dat nu doet om de load te verdelen, of dat je het doet om het redundant te houden, wat is het verschil? Je doet precies hetzelfde. In zo'n cluster ga je ook de data spreiden en meerdere kopieen bijhouden.
Ik heb je net toch echt horen vermelden dat je alles op zo weinig mogelijk servers wilt hebben :/
Volgens mij niet.
hp ultrium 400 GB data cartridge kost $120 bij HP.
Ik heb in de PW even gekeken naar de goedkoopste IDE disk van een behoorlijke size. Ik kom dan op de € 152,- kostende IBM 180GB (Deskstar 180GXP, 7200rpm 2MB Cache) uit. Hier koop ik er 2 van (om richting de 400 gig te kunnen).

Leg me nou nog eens uit hoe tapes ook al weer duurder waren - aangezien je met je prijs er ruim 100% boven zit kan ik met een klein aantal tapes gemakkelijk een tapedrive kopen (even los van het feit dat ik geen tientallen IDE disken in één systeem kan proppen).
400 GB gecomprimeerd, 200 GB feitelijke ruimte. En hoe groter je tapes, hoe langer het duurt om ze vol te schrijven. Er zijn een heleboel grote bedrijven die voor de backup iets anders hebben moeten verzinnen, omdat het anders gewoon te lang duurt. En op een Windows server moet je processen zoals een database stoppen voor je het kunt backuppen. Dus tijdens het backuppen is de server niet functioneel.

Met IDE RAID kun je een grote kast helemaal volstoppen met schijven.
Ja, net zoveel als we nodig hebben, maar dat zijn er erg weinig. Want de meeste IT'ers kopen er zoveel als speelgoed zei je toch?

Ik pak ff de quote er nog bij:
Inderdaad. Een SAN netwerk of een superserver is toch veel leuker dan een rijtje kloontjes?
Dus we kopen 2 of 3 hele vette computers. Maar we kopen ook servers op alle sites? En die servers beheren zich zelf? Hoeven niet gebacked up te worden. Niet te vervangen? Lustten geen stroom? Ook al is de licentie gratis.
Je kunt een gewone computer ook gebruiken als server, hoor. En als je het backuppen automatiseert, heb je naar bijvoorbeeld een Linux server geen omkijken meer. Af en toe eens met telnet kijken of zijn harddisk nog niet vol is of een gebruiker aanmaken, dan ben je er wel mee klaar. Dat kun je trouwens ook automatiseren.

Leuke anecdote: er stond in de serverruimte tussen alle grote Compaq racks ook nog ergens een gewone computer onder een tafel. Tijdens de inventarisatie vroeg de helpdesk zich af wat daar mee aan de hand was. Er hing geen toetsenbord of monitor aan, en dat ding stond daar al jaren. Uitzetten en in het magazijn.

Belden er ineens een heleboel gebruikers op, dat de helft van het intranet er uitlag. Op die doos draaide al meer dan 3 jaar MySQL en Apache. Was nog nooit onderhoud aan gedaan.
Je bent van een betoog over TCO, naar een betoog van server consolidatie, naar een betoog voor OpenSource gegaan. Waar heb jij het in godsnaam over?
Er zijn andere server-besturingssystemen dan alleen die van Microsoft.
Soms zijn dingen complex, omdat er veel mee moet kunnen. Omdat de eisen hoog zijn. Omdat de vragen divers zijn. Omdat de omgeving divers is.
Een kompleet distributiesysteem hoeft niet uit meer te bestaan dan een mogelijkheid om tijdens het inloggen, aan de hand van groepslidmaatschap, executable files af te laten gaan. Daar kun je alles mee doen. Om het wat gemakkelijker te maken, maak je het dan ook mogelijk om veelvoorkomende dingen, zoals het maken van drive-mappings, het zetten van registry-waardes, het installeren van printers, het synchroniseren van data en het doen van updates rechtstreeks uit te laten voeren. Maar zonder dat werkt het ook.
Ik denk hierbij maar 1 ding. Schoenmaker hou je bij je leest.

Tis leuk en aardig allemaal, een programmeurtje dat denkt te weten hoe een enterprise te beheren - maar zo werkt het nou eenmaal niet. Jij hebt geen idee wat de reeele vragen, eisen en problemen zijn van een beheerder, ook heb je blijkbaar geen idee van wat nou realistisch is en wat theoretisch allemaal leuk klinkt. Ik denk dat je het beste leuk kan blijven programmeren - misschien vindt je wel een beheerder die zo gek is om jouw ini files in te gaan vullen....
Ja, dat zeggen bijna alle beheerders. Maar ze kunnen ook niet laten zien hoe het dan beter werkt. Dat hebben er al veel geprobeert, en meestal zijn ze dan tot de conclusie gekomen dat dat van mij toch inderdaad wel geweldig werkt. Maar daar wilde ik het verder niet meer over hebben.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

DiGuru schreef op 25 April 2003 @ 21:49:
Of je dat nu doet om de load te verdelen, of dat je het doet om het redundant te houden, wat is het verschil? Je doet precies hetzelfde. In zo'n cluster ga je ook de data spreiden en meerdere kopieen bijhouden.
In de meeste file/print clusters spreid je de data niet - maar maak je gebruik van een shared storage systeem omdat het over een boel data gaat. Dit gaat toch echt in tegen je eerdere betoog voor consolideren.
400 GB gecomprimeerd, 200 GB feitelijke ruimte. En hoe groter je tapes, hoe langer het duurt om ze vol te schrijven. Er zijn een heleboel grote bedrijven die voor de backup iets anders hebben moeten verzinnen, omdat het anders gewoon te lang duurt.
Veel bedrijven gebruiken een NAS oid als tijdelijke storage, om het vanaf daar op tape te zetten.
En op een Windows server moet je processen zoals een database stoppen voor je het kunt backuppen. Dus tijdens het backuppen is de server niet functioneel.
Hiermee laat je opnieuw heel goed zien dat je echt niet weet waar je het over hebt. Ik ga je niet eens uitleggen hoe compleet belachelijk je jezelf maakt met dit soort opmerkingen.

Wel typisch dat je dit soort opmerkingen maakt - voor zo'n programmeur als jij wel niet bent ;)
Met IDE RAID kun je een grote kast helemaal volstoppen met schijven.
Ik heb sterk het idee dat jij laatst op TomsHardware.com zat te browsen, dit zag, en dacht dat je daarmee wel stoere praat kon gaan houden.

Een IDE raid neemt wat moeilijk onder de hand mee, als een firma als Merak de backups komt halen voor een remote storage.
Inderdaad. Een SAN netwerk of een superserver is toch veel leuker dan een rijtje kloontjes?
:z
Je kunt een gewone computer ook gebruiken als server, hoor. En als je het backuppen automatiseert, heb je naar bijvoorbeeld een Linux server geen omkijken meer. Af en toe eens met telnet kijken of zijn harddisk nog niet vol is of een gebruiker aanmaken, dan ben je er wel mee klaar. Dat kun je trouwens ook automatiseren.
Fantastisch dat dat kan zeg.
Wij hebben naast elke van onze Windows servers tenminste 3 mensen zitten :?

*kuch* Maar al m'n Linux servers ben ik kwijt geraakt - ze zullen wel achter gemetselde muurtjes staan, of verloren in serverrooms zonder keyboard en muis *kuch*
Leuke anecdote: er stond in de serverruimte tussen alle grote Compaq racks ook nog ergens een gewone computer onder een tafel. Tijdens de inventarisatie vroeg de helpdesk zich af wat daar mee aan de hand was. Er hing geen toetsenbord of monitor aan, en dat ding stond daar al jaren. Uitzetten en in het magazijn.

Belden er ineens een heleboel gebruikers op, dat de helft van het intranet er uitlag. Op die doos draaide al meer dan 3 jaar MySQL en Apache. Was nog nooit onderhoud aan gedaan.
Goh. En daarna vond je achter een wandje een server die per ongeluk ingemetseld was en die nog Novell 3.11 draaide?

Je begint toch echt steeds meer je geloofwaardigheid te verliezen.
Er zijn andere server-besturingssystemen dan alleen die van Microsoft.
Leuk, maar daarmee verklaar je nog steeds niet waarom je in dit topic van:

• TCO discussie
• Promotie van je programmatje
• Promotie van server consolidatie
• Promotie van OpenSource

springt. Bovendien ga jij ervan uit dat ik alleen Windows gebruik, een aanname die waarschijnlijk voorkomt uit jouw beperkte ervaringen.
Een kompleet distributiesysteem hoeft niet uit meer te bestaan dan een mogelijkheid om tijdens het inloggen, aan de hand van groepslidmaatschap, executable files af te laten gaan. Daar kun je alles mee doen.
Er zijn nou eenmaal ook programma's die niet out-of-the-box werken, sommige programma's moet je zowaar installeren en daarna misschien nog wel configureren.

Jij gaat een OfficeXP dus deployen door het simpelweg draaien van een applicatie die gestart wordt door jouw super beheerstool. Waar je trouwens ook nog niet op ingegaan bent, is ofdat dit de echte reden waarom jij het "iedereen is admin" principe nastreeft.
Ja, dat zeggen bijna alle beheerders. Maar ze kunnen ook niet laten zien hoe het dan beter werkt. Dat hebben er al veel geprobeert, en meestal zijn ze dan tot de conclusie gekomen dat dat van mij toch inderdaad wel geweldig werkt. Maar daar wilde ik het verder niet meer over hebben.
Als je IRL net zo over komt als op dit forum, ligt het meer eraan dat jij het bent, dan aan het feit dat ze het niet kunnen.

Ik heb overigens ook nog steeds niets unieks gehoord wat jouw beheerstool kan - helaas blijf je daar ook maar over zwijgen. Al met al begin ik er steeds meer naar te neigen dat je een zeer subtiele troll bent.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
elevator schreef op 25 April 2003 @ 23:07:
In de meeste file/print clusters spreid je de data niet - maar maak je gebruik van een shared storage systeem omdat het over een boel data gaat. Dit gaat toch echt in tegen je eerdere betoog voor consolideren.
Nogmaals, ik ben er al de hele tijd (lees het maar na) een groot voorstander van om het BEHEER centraal te doen, maar het NETWERK (en niet de individuele apparaten!) zo redundant mogelijk in elkaar te zetten.
Veel bedrijven gebruiken een NAS oid als tijdelijke storage, om het vanaf daar op tape te zetten.
Veel bedrijven zijn er ook al mee opgehouden nog tapes van die NAS server te maken.
Hiermee laat je opnieuw heel goed zien dat je echt niet weet waar je het over hebt. Ik ga je niet eens uitleggen hoe compleet belachelijk je jezelf maakt met dit soort opmerkingen.

Wel typisch dat je dit soort opmerkingen maakt - voor zo'n programmeur als jij wel niet bent ;)
Ja, ik loop ook al meer dan 7 jaar tegen netwerkbeheerders te vertellen, dat ze een export van hun data moeten maken en die backuppen, of dat synchroniseren met een andere database. Ze vertellen me allemaal dat dat niet nodig is. Ik denk dat ze dat te ingewikkeld vinden.

Als je gewoon probeert de files van de database te backuppen, mis je alle files die open staan en krijg je hem nooit meer teruggezet.

Een systeembeheerder heeft me een paar jaar geleden eens laten zien hoe je een Oracle database backupt: dat kan ArcServe gewoon zelf. Je moet natuurlijk wel eerst Oracle uitzetten, want anders gaat het fout. Om hem terug te zetten, installeer je eerst Oracle opnieuw, en dan zet je die files terug. Dan moet je een keer of tien een recovery draaien tot die niet meer crashed, en dan heb je meestal bijna al je data weer terug...

Brr! Maar alle andere netwerkbeheerders waren het er mee eens, dat het zo moet.
Ik heb sterk het idee dat jij laatst op TomsHardware.com zat te browsen, dit zag, en dacht dat je daarmee wel stoere praat kon gaan houden.

Een IDE raid neemt wat moeilijk onder de hand mee, als een firma als Merak de backups komt halen voor een remote storage.
Waarom zou je die backups nog eens ergens anders gaan opslaan, als ze al in een andere computer in een ander gebouw zijn? En ik had het er over, dat je voor de veiligheid gewoon nog een derde backup kunt maken, naar weer een andere lokatie. Maar, dan kun je natuurlijk niemand anders de schuld geven als het toch fout gaat.
Fantastisch dat dat kan zeg.
Wij hebben naast elke van onze Windows servers tenminste 3 mensen zitten :?

*kuch* Maar al m'n Linux servers ben ik kwijt geraakt - ze zullen wel achter gemetselde muurtjes staan, of verloren in serverrooms zonder keyboard en muis *kuch*
Tja, als ik je nu vraag: "Wat valt er dan aan een Linux server te beheren?", dan vertel je me natuurlijk, dat een echte beheerder dat wel weet en ik duidelijk een eikel ben die er niets van afweet. Dus vraag ik het maar niet.

Maar een andere vraag: wat zou het nut van een toetsenbord en een monitor voor een linux server zijn? Ik kan niets bedenken.
Goh. En daarna vond je achter een wandje een server die per ongeluk ingemetseld was en die nog Novell 3.11 draaide?

Je begint toch echt steeds meer je geloofwaardigheid te verliezen.
Nou, die Novell 3.12 servers die waren anders ook niet plat te krijgen. Alleen TCP/IP leverde wel regelmatig problemen op.
Leuk, maar daarmee verklaar je nog steeds niet waarom je in dit topic van:

• TCO discussie
• Promotie van je programmatje
• Promotie van server consolidatie
• Promotie van OpenSource

springt. Bovendien ga jij ervan uit dat ik alleen Windows gebruik, een aanname die waarschijnlijk voorkomt uit jouw beperkte ervaringen.
Ik probeer netjes je vragen te beantwoorden.
Er zijn nou eenmaal ook programma's die niet out-of-the-box werken, sommige programma's moet je zowaar installeren en daarna misschien nog wel configureren.
Inderdaad. En dat automatiseer je door ze te repackagen. Kun je meteen alle instellingen goedzetten en kan de gebruiker tijdens de installatie niet op het verkeerde knopje drukken. Dat is het hele idee achter softwaredistributie. Werkt echt heel mooi.
Jij gaat een OfficeXP dus deployen door het simpelweg draaien van een applicatie die gestart wordt door jouw super beheerstool. Waar je trouwens ook nog niet op ingegaan bent, is ofdat dit de echte reden waarom jij het "iedereen is admin" principe nastreeft.
Nee, Windows installeert bijna iedereen met een disk image. Ik ook. Werkt prima. Je kunt ook een unattended setup draaien, maar dat duurt (al naar gelang de snelheid van je netwerk) toch al gauw een paar uur. Je kunt ook booten via het netwerk, maar dan ben je ook al snel een half uur of langer bezig met een image te installeren. De snelste en makkelijkste manier is dus een disk image gebruiken vanaf een CD.

Daarna laat je de gebruiker inloggen, en heel de rest wordt gedistribueerd. Dat voorkomt en herstelt meteen ook een heleboel (mogelijke) fouten, iedere keer als de gebruiker inlogt. En slecht functionerende applicaties kan de gebruiker zelf herstellen door ze er nog een keer overheen te installeren.
Als je IRL net zo over komt als op dit forum, ligt het meer eraan dat jij het bent, dan aan het feit dat ze het niet kunnen.

Ik heb overigens ook nog steeds niets unieks gehoord wat jouw beheerstool kan - helaas blijf je daar ook maar over zwijgen. Al met al begin ik er steeds meer naar te neigen dat je een zeer subtiele troll bent.
Ik kreeg (terecht) van de moderators een schop, omdat ik op dit forum geen reklame moet maken voor mijn eigen spullen. Dat doe ik dus ook niet meer.

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

DiGuru schreef op 26 April 2003 @ 00:51:
[...]


Nogmaals, ik ben er al de hele tijd (lees het maar na) een groot voorstander van om het BEHEER centraal te doen, maar het NETWERK (en niet de individuele apparaten!) zo redundant mogelijk in elkaar te zetten.
Definieer netwerk, IMHO is het netwerk de verzameling van apparaten, onderling verbonden.
Veel bedrijven zijn er ook al mee opgehouden nog tapes van die NAS server te maken.
Lijkt me sterk, tenzij ze waanzinnig grote nas-omgevingen hebben staan. Een backup maak je niet alleen om te kunnen restoren als een bestand verloren gaat, maar ook als je van een nog bestaand bestand een oudere versie nodig hebt.
Ja, ik loop ook al meer dan 7 jaar tegen netwerkbeheerders te vertellen, dat ze een export van hun data moeten maken en die backuppen, of dat synchroniseren met een andere database. Ze vertellen me allemaal dat dat niet nodig is. Ik denk dat ze dat te ingewikkeld vinden.

Als je gewoon probeert de files van de database te backuppen, mis je alle files die open staan en krijg je hem nooit meer teruggezet.

Een systeembeheerder heeft me een paar jaar geleden eens laten zien hoe je een Oracle database backupt: dat kan ArcServe gewoon zelf. Je moet natuurlijk wel eerst Oracle uitzetten, want anders gaat het fout. Om hem terug te zetten, installeer je eerst Oracle opnieuw, en dan zet je die files terug. Dan moet je een keer of tien een recovery draaien tot die niet meer crashed, en dan heb je meestal bijna al je data weer terug...

Brr! Maar alle andere netwerkbeheerders waren het er mee eens, dat het zo moet.
Elke zichzelf respecterende database heeft een mechanisme om online backups te kunnen maken, en IMHO is dit geen verantwoordelijkheid van netwerkbeheerders, maar van de DBA.
Waarom zou je die backups nog eens ergens anders gaan opslaan, als ze al in een andere computer in een ander gebouw zijn? En ik had het er over, dat je voor de veiligheid gewoon nog een derde backup kunt maken, naar weer een andere lokatie. Maar, dan kun je natuurlijk niemand anders de schuld geven als het toch fout gaat.
Zie mijn reactie over backups hierboven..
Tja, als ik je nu vraag: "Wat valt er dan aan een Linux server te beheren?", dan vertel je me natuurlijk, dat een echte beheerder dat wel weet en ik duidelijk een eikel ben die er niets van afweet. Dus vraag ik het maar niet.

Maar een andere vraag: wat zou het nut van een toetsenbord en een monitor voor een linux server zijn? Ik kan niets bedenken.
Toetsenbord werkt prettig als er geen netwerkverbinding is
Nou, die Novell 3.12 servers die waren anders ook niet plat te krijgen. Alleen TCP/IP leverde wel regelmatig problemen op.
Op 3.12 is IPX/SPX het geprefereerde protocol
Inderdaad. En dat automatiseer je door ze te repackagen. Kun je meteen alle instellingen goedzetten en kan de gebruiker tijdens de installatie niet op het verkeerde knopje drukken. Dat is het hele idee achter softwaredistributie. Werkt echt heel mooi.

Nee, Windows installeert bijna iedereen met een disk image. Ik ook. Werkt prima. Je kunt ook een unattended setup draaien, maar dat duurt (al naar gelang de snelheid van je netwerk) toch al gauw een paar uur. Je kunt ook booten via het netwerk, maar dan ben je ook al snel een half uur of langer bezig met een image te installeren. De snelste en makkelijkste manier is dus een disk image gebruiken vanaf een CD.

Daarna laat je de gebruiker inloggen, en heel de rest wordt gedistribueerd. Dat voorkomt en herstelt meteen ook een heleboel (mogelijke) fouten, iedere keer als de gebruiker inlogt. En slecht functionerende applicaties kan de gebruiker zelf herstellen door ze er nog een keer overheen te installeren.
Disk imaging en push/pull installaties zijn een goede tool voor deployment, maar IMHO wordt het te vaak gebruikt om problemen "op te lossen". Er wordt al snel gekozen voor het opnieuw installeren van een machine, of herinstallatie van applicaties, vooral als de gebruiker dit zelf kan, hij/zij kan misschien verder werken, maar je krijgt geen inzicht in de mate waarin storingen plaats vinden. Je denkt dat jou distributie goed werkt, want je krijgt geen klachten. In werkelijkheid zou het kunnen zijn dat gebruikers vaak herinstalleren.

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Zer0 schreef op 26 april 2003 @ 01:57:
Definieer netwerk, IMHO is het netwerk de verzameling van apparaten, onderling verbonden.
Ja. Je wilt daarom bijvoorbeeld ook altijd een extra switch op de plank hebben liggen voor als er 1 kapot gaat. En meerdere routes maken. Dan ligt niet alles plat als er toch een keer 1 kapot gaat. Zo maak je het netwerk redundant.
Lijkt me sterk, tenzij ze waanzinnig grote nas-omgevingen hebben staan. Een backup maak je niet alleen om te kunnen restoren als een bestand verloren gaat, maar ook als je van een nog bestaand bestand een oudere versie nodig hebt.
De hoeveelheid data blijft gelijk. Er zijn ook diensten, waar je datastores kunt huren (draat op een *nix cluster), voor als je het echt veilig wilt hebben. Dan kopieer je bijvoorbeeld 1x per week alle wijzigingen daarnaartoe. Is ook altijd online.
Elke zichzelf respecterende database heeft een mechanisme om online backups te kunnen maken, en IMHO is dit geen verantwoordelijkheid van netwerkbeheerders, maar van de DBA.
Zo zou het moeten zijn, ja. in de praktijk is netwerkbeheer bijna altijd verantwoordelijk voor de backups. Als DBA is je beste optie zelf iedere dag een export te maken naar bijvoorbeeld je user dir, als je daar tenminste voldoende ruimte voor krijgt.
Zie mijn reactie over backups hierboven..

Toetsenbord werkt prettig als er geen netwerkverbinding is
Ja, maar dan is er toch iets anders kapot, waarschijnlijk zit er dan iets fout in het netwerk. In het ergste geval is de netwerkkaart kapot. Dan moet je inderdaad een toetsenbord en een monitor gaan aansluiten.
Op 3.12 is IPX/SPX het geprefereerde protocol
Daarom werkt TCP/IP ook niet zo lekker.
Disk imaging en push/pull installaties zijn een goede tool voor deployment, maar IMHO wordt het te vaak gebruikt om problemen "op te lossen". Er wordt al snel gekozen voor het opnieuw installeren van een machine, of herinstallatie van applicaties, vooral als de gebruiker dit zelf kan, hij/zij kan misschien verder werken, maar je krijgt geen inzicht in de mate waarin storingen plaats vinden. Je denkt dat jou distributie goed werkt, want je krijgt geen klachten. In werkelijkheid zou het kunnen zijn dat gebruikers vaak herinstalleren.
Dat is mogelijk. Maar ze geven zelf aan teverden tot heel tevreden te zijn. Dan is het toch goed? En ze geven het echt wel aan als het bijvoorbeeld iedere week een keer fout gaat. Dan moet dat worden verholpen.

Je moet ook regelmatig een keer rondlopen en hier en daar vragen hoe het gaat. Of een enquete maken.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

DiGuru schreef op 26 April 2003 @ 00:51:
Nogmaals, ik ben er al de hele tijd (lees het maar na) een groot voorstander van om het BEHEER centraal te doen, maar het NETWERK (en niet de individuele apparaten!) zo redundant mogelijk in elkaar te zetten.
Redundant mogelijk, maar tegelijkertijd ook veel consolideren.
Centraal beheer, maar ook zoveel mogelijk vrijheden.
Veel bedrijven zijn er ook al mee opgehouden nog tapes van die NAS server te maken.
Noem er eens 10 ?
Ja, ik loop ook al meer dan 7 jaar tegen netwerkbeheerders te vertellen, dat ze een export van hun data moeten maken en die backuppen, of dat synchroniseren met een andere database. Ze vertellen me allemaal dat dat niet nodig is. Ik denk dat ze dat te ingewikkeld vinden.
Als je gewoon probeert de files van de database te backuppen, mis je alle files die open staan en krijg je hem nooit meer teruggezet.[/quote]
Leuk voor je, maar hiermee geef je nogmaals aan dat je een boekhouder bent die de automatisering erbij doet.

Elke zichzelf respecterende RDMBS, kan een zogenaamde online backup uitvoeren, oftewel de database verzorgt een API of speciale tools, om een volledige backup te nemen van de database, waarin alle transacties opgenomen zijn (mits comitted). In deze backup blijven dingen als indexen e.d. dan ook volledig instant.

Wat jij voorstelt - namelijk een database dump en vervolgens een restore, is compleet onhaalbaar in een serieuze omgeving. Leuk als je een MySQL database hebt, maar dat is het dan ook.

Voorbeeldje. Als ik een Progress RDBMS database van +/- 40 gig ga dumpen naar een textfile, ben ik:

• Meer dan 10 uur kwijt voor het dumpen
• In die tussentijd zijn er allerlei row locks die het systeem onwerkbaar traag maken
• De indexen worden niet gedumped.
• In de tijd van de dump kunnen er geen transacties gecommit worden, waardoor je max. commit size 2gb is (probleem van de db, overigens)

Bij een restore van deze dump file, lopen we tegen het volgende aan:

• Het restoren (pak een dual cpu SUN met 4gb geheugen) en flinke raid set, gaat tegen de 5 dagen duren bij een niet integrity, niet index bouwende load.
• Het index bouwen verzorgt complete table-level locks, en gaat nog tenminste 3 dagen duren op een un-loaded systeem.
Een systeembeheerder heeft me een paar jaar geleden eens laten zien hoe je een Oracle database backupt: dat kan ArcServe gewoon zelf. Je moet natuurlijk wel eerst Oracle uitzetten, want anders gaat het fout. Om hem terug te zetten, installeer je eerst Oracle opnieuw, en dan zet je die files terug. Dan moet je een keer of tien een recovery draaien tot die niet meer crashed, en dan heb je meestal bijna al je data weer terug...

Brr! Maar alle andere netwerkbeheerders waren het er mee eens, dat het zo moet.
Opnieuw geef je hiermee je zeer beperkte ervaring aan.
Waarom zou je die backups nog eens ergens anders gaan opslaan, als ze al in een andere computer in een ander gebouw zijn? En ik had het er over, dat je voor de veiligheid gewoon nog een derde backup kunt maken, naar weer een andere lokatie. Maar, dan kun je natuurlijk niemand anders de schuld geven als het toch fout gaat.
Iemand de schuld geven is niet zo interessant - je moet ervan uit kunnen gaan dat alles er is.

Ik snap overigens niet hoe ik +/- 800 gigabyte of meer, naar een andere lokatie moet krijgen binnen een redelijk backup window. Laten we eventjes gaan rekenen:

Stel je voor ik heb 155mbit/sec liggen naar een andere site, dat is 19MB/sec, ook wel 1GB per minuut. 60GB per uur, dat is 720 gigabyte per 12 uur. Overigens is 155mbit/sec best wel erg duur als ik dit internationaal wil gaan aanleggen 8)7
Inderdaad. En dat automatiseer je door ze te repackagen. Kun je meteen alle instellingen goedzetten en kan de gebruiker tijdens de installatie niet op het verkeerde knopje drukken. Dat is het hele idee achter softwaredistributie. Werkt echt heel mooi.
Ah.

Dus even samenvattend, jouw tool:

• Kan drives mappen
• De Tijd syncen
• Printers connecteren
• Programma's starten (die dan packages zijn).

Meer niet, als ik het goed begrepen heb?
Daarna laat je de gebruiker inloggen, en heel de rest wordt gedistribueerd. Dat voorkomt en herstelt meteen ook een heleboel (mogelijke) fouten, iedere keer als de gebruiker inlogt. En slecht functionerende applicaties kan de gebruiker zelf herstellen door ze er nog een keer overheen te installeren.
Ah, een échte systeembeheerder - eentje die het 3xR principe aanhangt.
Ik kreeg (terecht) van de moderators een schop, omdat ik op dit forum geen reklame moet maken voor mijn eigen spullen. Dat doe ik dus ook niet meer.
Omdat je je product aan het verkopen was met dingen als:
Dat werkt minstens net zo goed. Ik vind, dat dat vele malen beter en simpeler werkt, maar ik ben natuurlijk bevooroordeeld.
als je in houdelijk je fantastische oplossingen (...) uitlegt (ipv probeert te verkopen), dan vermoed ik dat als je dit vriendelijk met Koffie/Predator overlegt, vast wel toegestaan wordt :)

  • mutsje
  • Registratie: September 2000
  • Laatst online: 23-04 19:36

mutsje

Certified Prutser

Centraliseren werkt voor een klein bedrijf leuk.. alles op 1 plek daar de gebruikers op laten werken bij voorkeur clusteren en een goede backup blijft essentieel.

Maar denk nu eens aan de grote bedrijven met vestigingen over meerdere continenten.
Dit betekend dat er 24 uur beheer gedaan moet worden dus als het ene deel gaat slapen neemt het andere deel dat over. Als je dit centraal gaat maken betekend dat er slechts 1/4 dagdeel beheer gedaan wordt en 3/4 niet.

TCO is ook automatiseren van bedrijfsprocessen daarvoor hebben ze bijvoorbeeld HP Openview ontwikkeld DELL management etc etc elke grote fabrikant heeft zijn eigen tool.

Dit betekend bij grote bedrijven dat er een afdeling zal zijn die dit in de gaten houd 24/7 en bij storingen stand-by diensten gaat bellen die het probleem dan weer oplossen.

TCO is heel vaak erg theoreties en in de praktijk bijna niet te handhaven.

Uitspraken als ik zet er wel ff een desktop neer met linux erop en die draait klakkeloos vind ik persoonlijk een beetje vaag. Wat als diegene weggaat en er mensen overblijven die geen kaas gegeten hebben van linux zul je weer externen in moeten huren tegen meestal erg hoge kosten die dan als "zogenaamde" experts het probleem oplossen.

De reden dat er bij grote bedrijven vaak merkproducten staan heeft ook iets te maken met service contracten die daar op afgesloten worden met prio1,2,3,4 tijden..... responstijden van 1-4 uur zijn dan erg normaal. Zeker bij heel erg belangrijke machines worden soms wurgcontracten afgesloten van 1 uur responstijd 4 uur call to fix en dergelijke.

Er zijn een hele boel mensen die denken mijn script werk het beste... maar dan komen de volgende punten om de hoek kijken.

je verkoopt je product aan een bedrijf..
Storing>> wie lost het op
Updates >> kosten?
Licenties >> wie houd dit bij

etc etc

Het is niet voor niets dat grote pakketten en de professionele hardware zo duur is je krijgt er service bij. Dit alles is doorberekend naar de klant toe.

ITIL klink ook leuk... dit houd meestal in dat 1 persoon die beheer doet opeens nog 3 of 4 andere taken erbij krijgt met administratie waar je misselijk van wordt.

Verwijderd

Digi-guru, jij bent een van de onrealistische it'er die er is, en dit is ook nog eens een topic die nergens over gaat.....

  • Taigu
  • Registratie: Februari 2002
  • Laatst online: 25-04 08:52
@Diguru: wat jouw tool wilt, kunnen AD en NDS (icm ZEN), alleen het verschil tussen AD/NDS en jouw tool is dat AD en NDS echt gecentraliseerd zijn....
Het is gewoon allemaal niet zo moeilijk.
Het understatement van het millenium...

Dit topic begint zwaar naar een troll te reiken. Van een zinnige discussie (ook al zijn de diverse onderwerpen zeer interessant) is zeker geen sprake. Slotje ?

Cling to truth and it turns into falsehood. Understand falsehood and it turns into truth.


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Goed. Laten we eens kritisch naar het beheer kijken. We zijn het er allemaal over eens, dat het belangrijk is om de servers in de lucht te houden. En dat de data wordt veiliggesteld. Laten we daar niet meer verder op ingaan.

Wat is er verder bij het beheer het meeste werk? Zorgen dat de werkstations goed functioneren. Dat kun je op heel veel manieren doen. De meest gebruikte oplossing is Ghost-images maken met een standaardpakket er op, en voor heel de rest een tool zoals RemoteAdmin gebruiken om storingen te herstellen of applicaties bij te installeren. Soms wordt SMS of ZEN gebruikt voor het distibueren van applicaties.

Maar, wat gaan we nu doen, als we wereldwijd een wijziging willen doorvoeren? Hoe gaan we dat doen? In de meeste gevallen gewoon niet. Want nieuwe Ghost-images maken is gewoon te veel werk, en dan moet je ook alle gebruikers aflopen. En daarna zijn alle aanpassingen en extra applicaties weer verdwenen. Met RemoteAdmin is daar ook geen beginnen aan.

Je moet dus ook een hulpmiddel hebben waarbij je wereldwijd een wijziging kunt aanbrengen, zonder dat je daarvoor met alle vestigingen kontakt hoeft op te nemen of alle workstations noet benaderen.

Plus, je wilt ook alle wijzigngen die er aan alle computers zijn aangebracht administreren. Of beter nog: automatiseren. Want als je het op moet schrijven, gebeurt dat meestal toch niet, en niemand gaat die lijst opvragen en de volgende keer weer al die wijzigingen doorvoeren.

En dat geeft ook aan wat daar nu het belangrijkste aan is: de configuratie van alle computers wereldwijd moet geregistreerd zijn en de wijzigingen moeten automatisch worden uitgevoerd.

Ook belangrijk, is dat je er voor zorgt, dat die wijzigingen niet afhankelijk zijn van een bepaalde Windows-versie en dat je iedere combinatie af kan laten gaan zonder dat er versieconflicten optreden.

Je gaat dan een computer inrichten met bouwblokjes. Kees is een nieuwe werknemer. Die krijgt natuurlijk alle standaard onderdelen: Office, Winzip, Adobe Acrobat, Paintshop, het standaard lijstje van registry fixes, een virusscanner en de updates daarvoor, het urenregistratiepakket, een paar algemene bugfixes, etc. Daartoe maak je hem lid van de algemene groep.

Daarna ga je kijken waar Kees gaat werken: Ah, die zit in New York, op de afdeling Sales. Die krijgt dus nog heel wat andere dingen, en die gebruikt die printer, heeft die drivemappings, een andere achtergrond van het bureaublad, enz. Lid maken van de NYSales groep en dat is ook gefixed.

Verder heeft die nog een hele specialistische applicatie, een paar conversiefilters, een paar woordeboeken Engels/Nederlands en nog wat dingetjes. Lid maken van de juiste groepen, en klaar is Kees.

Om dat mogelijk te maken, heb je dus op iedere vestiging een stukje van de beheerdatabase nodig, een hele set aan pakketjes en een manier om daar dingen aan te wijzigen.

Is dit een goede manier van beheren? En wat zijn dan de mogelijkheden om dat te doen?

Verwijderd

:Z

Als je een topic wilt beginnen over zoiets abstracts als TCO, moet je niet keer op keer verzanden in technisch detailistisch geneuzel.

En wat je hierboven omschrijft, is ouwe koek, menig bedrijf heeft dat allang. Bedrijf waar ik werk heeft dat iig nu al enkele jaren, zonder ook maar vaag last te hebben van de problemen die jij omschrijft.

Applicaties world-wide updaten, kan prima, met W2k/W2k3 AD.

Maar dan eindigen we bij jou "T'werkt niet" wat eigenlijk zou moeten zijn "Ik snap het niet snel genoeg, dus verklaar ik het maar 'niet werkend'".

Dat maakt je een Dinosaur-first-class.

Vooral lekker blijven bij wat jij weet wat werkt, hey?

Ik hoop voor jou dat je klanten vooral zo ignorant blijven als dat ze zijn, anders is je IT carriere een kort leven beschoren.

En propriatry crap installen, ik snap ondertussen dat je vooral kiest voor je eigen product, maar is dat wel verantwoord?

Is die software wel getest ofzo? En dan heb ik het wel over een test door een hoger aangeschreven bedrijf dan je eigen 1 mans toko?

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Ok. Laten we het er op houden, dat ik een eikel ben en geen idee heb waar ik het over heb.

Tussen twee haakjes, bij DSM gebruiken ze dit al jaren wereldwijd voor alle werkstations, en ik heb het bedacht en gemaakt omdat ZEN en SMS niet voldeden. Maar dat zul je toch wel niet geloven.

Verwijderd

DiGuru schreef op 26 April 2003 @ 14:52:
Ok. Laten we het er op houden, dat ik een eikel ben en geen idee heb waar ik het over heb.

Tussen twee haakjes, bij DSM gebruiken ze dit al jaren wereldwijd voor alle werkstations, en ik heb het bedacht en gemaakt omdat ZEN en SMS niet voldeden. Maar dat zul je toch wel niet geloven.
Neuh, maar keer op keer beweren dat mainstream producten als AD en ZEN niet werken doet een beetje belachelijk aan.

De fortune 500 bedrijven werken hier mee, tot volle tevredenheid, en jij komt niet verder dan "Het werkt niet".

Als je nu zou beargumenteren waarom mainstream producten niet werken, kunnen we nog ergens komen, maar zelfs dat doe je niet.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Verwijderd schreef op 26 april 2003 @ 14:59:
[...]


Neuh, maar keer op keer beweren dat mainstream producten als AD en ZEN niet werken doet een beetje belachelijk aan.

De fortune 500 bedrijven werken hier mee, tot volle tevredenheid, en jij komt niet verder dan "Het werkt niet".

Als je nu zou beargumenteren waarom mainstream producten niet werken, kunnen we nog ergens komen, maar zelfs dat doe je niet.
Ok. Ik zeg niet dat ze niet werken. Ik zeg alleen dat het beter kan. Je krijgt alles aan de praat als het moet. Het is veel belangrijker wat je doet en hoe je dat doet, dan welke hulpmiddelen je gebruikt. En ik vind, dat het heel simpel moet zijn en altijd voorspelbaar moet werken.

Het grootste probleem met ZEN, SMS en AD is, dat je daar wereldwijd hele snelle verbindingen voor nodig hebt. Een verkoopkantoortje in Rusland met alleen een modemverbinding en de lokale electromonteur als netwerkbeheerder was niet in het grote plaatje in te passen.

Een ander groot probleem was, dat er niet voldoende geschoold personeel voor te vinden was die dat ook aan de praat konden krijgen en houden.

Dus ik heb gewoon iets heel simpels gemaakt dat dat ook allemaal kan en waar iedereen meteen mee aan de slag kan. Met veel succes.

Een derde probleem was, dat iedere vestiging ook zijn eigen idee had over hoe het nu moest. In Amerika waren ze bijvoorbeeld niet blij toen ze te horen kregen dat ze Gold moeten gaan gebruiken, want ze hadden net met veel pijn en moeite SMS aan de praat gekregen.

Maar nu willen ze absoluut niet meer terug, want het kan dus inderdaad veel beter en simpeler.

Dat is eigenlijk alles: het is heel simpel, iedereen begrijpt het meteen, en het werkt altijd. En je kunt er alle dingen mee doen die SMS, AD en ZEN ook kunnen. Zonder dat iedereen daar eerst een half jaar voor op cursus moet of je wereldwijd een heel snel netwerk moet hebben.

Ik heb gewoon alle toeters en bellen weggelaten en gekeken wat nu eigenlijk belangrijk is. Maar het aanpassen van ini-files is toch wel een hoge drempel, dus komt er binnenkort een GUI met een hele hoop wizards omheen, zodat je alles kunt klikken. En een beheerschermpje waarmee je dus meteen echt alle informatie van die gebruiker en computer op je scherm hebt staan.

Dat is eigenlijk alles.

Maar, je ziet wel hoe netwerkbeheerders op die maffe ideen van mij reageren. ;)

Toch heb ik eigenlijk alle argumenten waarom het onzin is, waarom het niet gaat werken, waarom ik niet weet waar ik het over heb, enz, al vele malen gehoord van de netwerkbeheerders die er nu mee werken. Ze waren het toen helemaal met jullie eens. :)

  • Jaymz
  • Registratie: Januari 2000
  • Laatst online: 28-04 18:40

Jaymz

Keep on moving !

DiGuru schreef op 26 April 2003 @ 14:30:

[heel lang verhaal]

Is dit een goede manier van beheren? En wat zijn dan de mogelijkheden om dat te doen?
ZENworks 4 (icm eDirectory) is daar prima toe in staat. Om dat 'te bewijzen' moet ik de halve documentatie overtikken dus lijkt het me nuttiger als je de documentatie zelf eens doorleest :)

Overigens heb je daar ab-so-luut geen snelle verbindingen voor nodig, verstand van zaken en een goed ontwerp (partitions + replica's) is meer dan genoeg ;)

Maar het is inderdaad zo dat als iemand uit oezbekistan een resource nodig heeft en die op een server in amerika staat je een snelle verbinding nodig hebt, maar ik noem dat een ontwerpfout (van de beheerder(s)) :)

Probleempje is echter wel dat je dat helemaal zelf moet configureren (aangezien ZEN niet weet of jij een "simpel" of een complex netwerk hebt), en ik ben bang dat men juist daar de steekjes nog wel eens laat vallen ;)

Ps. SMS zal het vast ook wel kunnen, alleen ben ik daar niet echt bekend mee :)

Andere vraag: Als de halve wereld jouw product gebruikt en 6 multinationals hebben een groot probleem (en het ligt idd aan jouw software), hoe was je dan van plan ondersteuning te bieden, Microsoft en Novell hebben me dunkt daar de infrastructuur wel voor, en jij ?

Ps dat jouw product prima werkt wil ik best geloven. Het "AD / SMS / NDS / ZEN voldoen niet" gaat er bij mij niet in. Die voldoen wel mits je weet waar je mee bezig bent. Het zijn namelijk inderdaad geen productien die 1-2-klik werken en exact doen wat je wilt, dat moet je configureren :)

En inderdaad, voor dat laatste hebben wij nou eenmaal gekozen en we zijn er meer dan dik tevreden mee :)

[ Voor 29% gewijzigd door Jaymz op 26-04-2003 15:46 ]


Verwijderd

Zal ik de conclusie maar even (kort) schrijven dan:

1) technische oplossing verschilt per bedrijf, situatie en tijdstip
2) TCO is een kostenplaatje, niet een technische oplossing ofzo

Bedankt voor 3 pagina's tekst :P

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Jaymz schreef op 26 April 2003 @ 15:34:
[...]
ZENworks 4 is daar prima toe in staat. Om dat 'te bewijzen' moet ik de halve documentatie overtikken dus lijkt het me nuttiger als je de documentatie zelf eens doorleest :)
Ik ken het. Ik heb voor ZENworks2 een keer een programmatje geschreven, dat een Snapshot script aanpast zodat het ook werkt, het pakket test en het ook meteen in de NDS boom hangt. Dat was (toen, ik weet niet hoe het zit met versie 4) een heel akelig en langdurig werkje. We kregen daar zelfs VisualStudio mee aan de praat, dat was ons handmatig nog niet gelukt :)
Overigens heb je daar helemaal geen snelle verbindingen voor nodig, verstand van zaken is meer dan genoeg ;)
Daar zit inderdaad meestal het grootste probleem. Om een Globale NDS tree aan de praat te houden, moet je bijvoorbeeld heel goed in kaart gaan brengen hoe je alle databases gecontroleerd gaat repliceren. Dat is een lastig en specialistisch werkje.
Probleempje is echter wel dat je dat helemaal zelf moet configureren (aangezien ZEN niet weet of jij een "simpel" of een complex netwerk hebt), en ik ben bang dat men juist daar de steekjes nog wel eens laat vallen ;)
Ik heb van dichtbij meegemaakt wat er allemaal fout kan gaan. ;)
Ps. SMS zal het vast ook wel kunnen, alleen ben ik daar niet echt bekend mee :)
Ja, natuurlijk zul je dat met SMS ook wel aan de praat kunnen krijgen. Het is alleen nog wat lastiger dan ZEN. Ik zou wel eens een kijkje willen nemen bij een groot bedrijf waar ze dat ook echt gebruiken, om te zien hoe dat werkt. Ik had SMS2 na een week nog niet goed aan de praat, dus toen ben ik er maar mee opgehouden.
Andere vraag: Als de halve wereld jouw product gebruikt en 6 multinationals hebben een groot probleem (en het ligt idd aan jouw software), hoe was je dan van plan ondersteuning te bieden, Microsoft en Novell hebben me dunkt daar de infrastructuur wel voor, en jij ?
Nou, aangezien het gewoon 1 executable is van 750 k, pas ik die aan indien nodig (meestal is wat uitleg voldoende en hoef ik niets te wijzigen), en dan stuur ik die nieuwe versie via de e-mail als testversie naar de klanten.

Een cursusje van een of twee daagjes (waarin ook stap voor stap alles wordt omgezet) is meestal voldoende. En dan draait het en kunnen de netwerkbeheerders zelf gaan kijken wat ze er allemaal nog verder mee willen doen.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Jaymz schreef op 26 april 2003 @ 15:34:
Ps dat jouw product prima werkt wil ik best geloven. Het "AD / SMS / NDS / ZEN voldoen niet" gaat er bij mij niet in. Die voldoen wel mits je weet waar je mee bezig bent. Het zijn namelijk inderdaad geen productien die 1-2-klik werken en exact doen wat je wilt, dat moet je configureren :)

En inderdaad, voor dat laatste hebben wij nou eenmaal gekozen en we zijn er meer dan dik tevreden mee :)
Prima toch? Als het werkt en je bent er tevreden mee, dan is het goed. En je zou wel gek zijn om dan over te stappen op iets anders, zeker nu je al die kennis hebt opgedaan over NDS/ZEN.

Want daar gaat het tenslotte om: het moet gewoon goed werken.

Verwijderd

toch bekruipt mij het gevoel dat die diguru alleen maar (gratis) reclame opzoekt.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Verwijderd schreef op 26 april 2003 @ 16:09:
toch bekruipt mij het gevoel dat die diguru alleen maar (gratis) reclame opzoekt.
Laten we daar dan niet meer over praten en het gewoon algemeen houden.

Verwijderd

Diguru,

Je hele verhaal is in verleden tijd, toen werkte het niet, een derde probleem was....

Steek de hand ens in eigen boezem, misschien is er in de tussentijd wel het een en't ander veranderd...
Dat is een lastig en specialistisch werkje.
Ik heb van dichtbij meegemaakt wat er allemaal fout kan gaan.
T'lijkt me dat je daar geen last van hebt als je gecertificeerd personeel daarvoor aanneemt, of zie ik dat verkeerd?

En daarbij heb ik nog steeds niks gehoord over hoe betrouwbaar jou code is.

Don't get me wrong, je zal echt wel kenne programeren.

Maar wat voor garanties heb je als MS weer ens een SP released, dat het dan werkt?

Vanzelfsprekend, test MS z'n patches wel met z'n eigen distri software, en niet met jou spul.

Daarbij: heel cruciaal: reken jij je klanten een fee voor het gebruiken van je systeem?

If so, dan benadeel je ze, er zit immers al een soortgelijk systeem in.

If not, heb je een gaatje in je hoofd, is wel jou intellectual property.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Dit is trouwens een heel handig tooltje. Je typt gewoon een errorcode in en hij vertelt je welke dat was. Werkt ook met de errorcodes van de meeste applicaties. Altijd makkelijk.

Maar, laten we gewoon in zijn algemeenheid eens on-topic verder praten over het beheren en distribueren van dingen en of dat de TCO ten goede komt.

Verwijderd

Stop eens met dit gelul DiGuru....je hebt al bewezen dat je een allesbeter weter bent.

kan dit belachelijke topic niet op slot???

Verwijderd

DiGuru schreef op 26 April 2003 @ 16:24:
Maar, laten we gewoon in zijn algemeenheid eens on-topic verder praten over het beheren en distribueren van dingen en of dat de TCO ten goede komt.
Ik doe me best, maar wat bedoel je daar mee? :)

Anders ben je snel klaar: Ja dat komt de TCO ten goede.

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

DiGuru schreef op 26 April 2003 @ 16:24:
Dit is trouwens een heel handig tooltje. Je typt gewoon een errorcode in en hij vertelt je welke dat was. Werkt ook met de errorcodes van de meeste applicaties. Altijd makkelijk.
omfg.

2 manieren:

1).
1: je klikt op Start
2: je gaat naar "run"
3: je typt in "cmd" en drukt op [enter]
4: je typt in: "net helpmsg xxx" waar "xxx" het nummer is wat je zoekt.

2).
Volgens mij komt winerror trouwens rechtstreeks uit de RK.

Verwijderd

2).
Volgens mij komt winerror trouwens rechtstreeks uit de RK.
Komop zeg,

Als je dit soort boude uitspraken wilt doen, kan je echt wel ff de moeite nemen om de executable te downen, en ff de properties op te vragen, in welk geval je zeker zou weten dat de poster het wel degelijk zelf heeft geschreven.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Verwijderd schreef op 26 April 2003 @ 16:53:
[...]


Ik doe me best, maar wat bedoel je daar mee? :)

Anders ben je snel klaar: Ja dat komt de TCO ten goede.
Ik denk dat het bijvoorbeeld ook heel belangrijk is om alle wijzigingen die je aanbrengt aan een computer ook te distribueren. Dat kan bijvoorbeeld heel mooi met Wise: als je iets wilt wijzigen aan bijvoorbeeld de netwerkinstellingen, dan maak je daar een SetupCapture van. Je gebruikt Wise dan als macrorecorder. De executable die Wise maakt ken je dan toe aan de gebruiker.

Dat heeft als voordeel, dat als de computer van die persoon opnieuw gestaged wordt, dat die wijziging weer automatisch wordt uitgevoerd. En als iemand anders diezelfde wijziging moet hebben, kun je daar die executable ook voor gebruiken.

Ook prachtig als je roaming users hebt, dan werkt het al helemaal niet om die wijziging rechtstreeks met RAdmin te maken.

Hoever zou je daar in moeten gaan? Ik denk dat je moet proberen alle wijzigingen te automatiseren.

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Verwijderd schreef op 26 April 2003 @ 16:56:
[...]


Komop zeg,

Als je dit soort boude uitspraken wilt doen, kan je echt wel ff de moeite nemen om de executable te downen, en ff de properties op te vragen, in welk geval je zeker zou weten dat de poster het wel degelijk zelf heeft geschreven.
Of gewoon een shelletje heeft gemaakt voor deze: http://www.evseev.ucvt.ru...6b03001e5df5!OpenDocument

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Verwijderd

DiGuru schreef op 26 april 2003 @ 17:04:
[...]


Ik denk dat het bijvoorbeeld ook heel belangrijk is om alle wijzigingen die je aanbrengt aan een computer ook te distribueren. Dat kan bijvoorbeeld heel mooi met Wise: als je iets wilt wijzigen aan bijvoorbeeld de netwerkinstellingen, dan maak je daar een SetupCapture van. Je gebruikt Wise dan als macrorecorder. De executable die Wise maakt ken je dan toe aan de gebruiker.

Dat heeft als voordeel, dat als de computer van die persoon opnieuw gestaged wordt, dat die wijziging weer automatisch wordt uitgevoerd. En als iemand anders diezelfde wijziging moet hebben, kun je daar die executable ook voor gebruiken.

Ook prachtig als je roaming users hebt, dan werkt het al helemaal niet om die wijziging rechtstreeks met RAdmin te maken.

Hoever zou je daar in moeten gaan? Ik denk dat je moet proberen alle wijzigingen te automatiseren.
Ja, dat klopt. Vanuit het W2K perspectief is dat de geeigende weg.

De infrastructuur om MSI'tjes te pushen zit er namelijk altijd al in, dus niks let je om dat te 'misbruiken' om ook instellingen te veranderen.

Qua RUPjes maakt dat overigens niets uit, want je wijst niet alle software aan op userID, maar ook op ComputerID.

RAdmin is alleen leuk voor troubleshooting. Software wijzigingen doe je sowieso niet workstation voor workstation, maar als't kan in 1 keer voor iedereen.

Remote onzin is enkel leuk voor helpdesk medewerkers die suffe klanten moeten helpen, en natuurlijk servers beheren.

Een middel om te upgraden is het niet.

En dat je RAdmin gebruikt verbaast me wederom. Again: Zo'n remote oplossing heeft W2K al ingebouwd. Je 'betaalt' dus weer dubbel.

Elke w2k client heeft netmeeting ingebakken, kwestie van je build goed afstellen. Voor servers heb je remote terminal service ingebakken.

Nogmaals: RAdmin zal wel werken, maar t'is dubbelop.

  • Taigu
  • Registratie: Februari 2002
  • Laatst online: 25-04 08:52
Dit is trouwens een heel handig tooltje. Je typt gewoon een errorcode in en hij vertelt je welke dat was. Werkt ook met de errorcodes van de meeste applicaties. Altijd makkelijk.
Spam, en je hebt er geen reet aan bij het beheren van Win2k...


Om toch even op je tooltje terug te komen : hoe gecentraliseerd is het ? Als je een nieuwe versie uitbrengt, wordt dat automatisch gedistribueerd ? En hoe ?

Hoe werkt de gebruikersadministratie ?

Cling to truth and it turns into falsehood. Understand falsehood and it turns into truth.


  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Source van WinError:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
unit Unit1;

interface

uses
  Windows, Messages, SysUtils, Classes, Graphics, Controls, Forms, Dialogs,
  Mask, StdCtrls;

type
  TForm1 = class(TForm)
    Label1: TLabel;
    Label2: TLabel;
    MaskEdit1: TMaskEdit;
    StaticText1: TStaticText;
    procedure MaskEdit1Change(Sender: TObject);
  private
    { Private declarations }
  public
    { Public declarations }
  end;

var
  Form1: TForm1;

implementation

{$R *.DFM}

const
  OldVal: integer = 0;

procedure TForm1.MaskEdit1Change(Sender: TObject);
var
  i, Code: Integer;
begin
  if (Length(Trim(MaskEdit1.Text)) > 0) and
    (Trim(MaskEdit1.Text) <> '0') then
  begin
    {$R-}
    Val(MaskEdit1.Text, i, Code);
    if Code <> 0 then
    begin
      MaskEdit1.Text := IntToStr(OldVal);
      StaticText1.Caption := '';
    end
    else
    begin
      OldVal := i;
      StaticText1.Caption := SysErrorMessage(i);
    end;
  end
  else
  begin
    StaticText1.Caption := '';
  end;
end;

end.

Verwijderd

Doet daar weinig aan af.

De meeste diagnostics tools kun je ook wel zonder, als je maar weet wat je in CMD in moet tikken.

Neemt niet weg dat een interface vaak gemakkelijk is.

Ik bedoel; iedereen heeft wel ens zo'n grafische ping of tracert gezien. Voegen gewoon iets toe. Gaan we toch ook niet janken "dat kan ook zo en zo"?

  • elevator
  • Registratie: December 2001
  • Niet online

elevator

Officieel moto fan :)

Los ofdat het nou direct uit de resource kit komt - het zijn wel heel erg basic API calls - kijik hier eens http://msdn.microsoft.com...ug/base/formatmessage.asp ... Ik bedoel. Waar hebben we het over, zeg :/



  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Verwijderd schreef op 26 april 2003 @ 17:18:
[...]


Ja, dat klopt. Vanuit het W2K perspectief is dat de geeigende weg.

De infrastructuur om MSI'tjes te pushen zit er namelijk altijd al in, dus niks let je om dat te 'misbruiken' om ook instellingen te veranderen.

Qua RUPjes maakt dat overigens niets uit, want je wijst niet alle software aan op userID, maar ook op ComputerID.

RAdmin is alleen leuk voor troubleshooting. Software wijzigingen doe je sowieso niet workstation voor workstation, maar als't kan in 1 keer voor iedereen.

Remote onzin is enkel leuk voor helpdesk medewerkers die suffe klanten moeten helpen, en natuurlijk servers beheren.

Een middel om te upgraden is het niet.

En dat je RAdmin gebruikt verbaast me wederom. Again: Zo'n remote oplossing heeft W2K al ingebouwd. Je 'betaalt' dus weer dubbel.

Elke w2k client heeft netmeeting ingebakken, kwestie van je build goed afstellen. Voor servers heb je remote terminal service ingebakken.

Nogmaals: RAdmin zal wel werken, maar t'is dubbelop.
Helemaal mee eens. En ja, voor het beheer is de Terminal Service ook een heel goed alternatief. Het is maar wat je het fijnste vind werken.

Zeker met Wise is het een koud kunstje om even een MSI te maken en te distribueren. Dat werkt heel mooi. Als je alles zo doet, heb je gewoon een doos vol bouwblokjes, waarmee je iedereen een custom computer kunt geven zonder dat je dat extra werk kost.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
buddhole schreef op 26 April 2003 @ 17:20:
[...]


Spam, en je hebt er geen reet aan bij het beheren van Win2k...


Om toch even op je tooltje terug te komen : hoe gecentraliseerd is het ? Als je een nieuwe versie uitbrengt, wordt dat automatisch gedistribueerd ? En hoe ?

Hoe werkt de gebruikersadministratie ?
Nou, vooruit. Toch nog eventjes dan. De gebruikersadministratie doe je gewoon zoals je gewend bent: met de tools van Windows. Je kunt het ook zelf met een ini-filetje doen, maar dan moet je apart ook nog eens de rechten op de schijven goedzetten.

Verder heb je dus gewoon wat ini-files, waar je bijvoorbeeld met notepad gewoon kunt bepalen wat er allemaal gebeurd. Of je kunt ze importeren in een database, vandaaruit wijzigingen aanbrengen en ze weer exporteren. Het is maar wat je makkelijk vind.

Per site heb je dus een verzameling packages, een paar ini-files en een executable. Je database past dus als het moet op een floppy. ;)

Ik zal toch maar eens een gratis versie maken. Volgende week. En geen dertig dagen gezeik of andere flauwekul. Mag je ongelimiteerd gebruiken. Kun je er zelf eens mee spelen.

Verwijderd

Zeker met Wise is het een koud kunstje om even een MSI te maken en te distribueren. Dat werkt heel mooi. Als je alles zo doet, heb je gewoon een doos vol bouwblokjes, waarmee je iedereen een custom computer kunt geven zonder dat je dat extra werk kost.
Ja, al kan dat nog stug tegenvallen.

Setupcapture kijk grofweg naar alles wat veranderd.

Windows zelf is helaas ook altijd veel op de achtergrond aan het doen, en die veranderingen neemt'ie droog mee.

Dus, kun je al je MSI'tjes na gaan kijken op veranderingen, en of dat al dan niet met het programma te maken heeft, enz.

Van alle activiteiten die er zijn, is het repackagen het meest tijds intensieve.

En op me werk ging het laatst nog leuk fout.

Casus: Als op een bepaald type computer, realplayer 8 werd geinstalled, en daarna voeg je geheugen toe, leverde dat een BSOD op.

Alleen op 1 bepaald type computer. We hebben er een stuk op 10, door de hele org heen.

Uninstallde je eerst realplayer, dan leverde het geen BSOD op. Je kon hem na de mem upgrade ook prima terug installen, ook geen probleem.

Op alle andere typen computers leverde het sowieso geen probleem op. Ook type computers die alleen qua CPU MHz verschilde (letterlijk 1GHz, ipv 733MHz, de 733 had er last van , de 1GHz niet, alhoewel die voor de rest precies hetzelfde was).

De 'logica' die hier achter zit is amper te bevatten. Zo zie je maar, een vers gemaakt MSI'tje moet je zeer zorgvuldig checken.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Verwijderd schreef op 26 April 2003 @ 17:45:
[...]


Ja, al kan dat nog stug tegenvallen.

Setupcapture kijk grofweg naar alles wat veranderd.

Windows zelf is helaas ook altijd veel op de achtergrond aan het doen, en die veranderingen neemt'ie droog mee.

Dus, kun je al je MSI'tjes na gaan kijken op veranderingen, en of dat al dan niet met het programma te maken heeft, enz.

Van alle activiteiten die er zijn, is het repackagen het meest tijds intensieve.

En op me werk ging het laatst nog leuk fout.

Casus: Als op een bepaald type computer, realplayer 8 werd geinstalled, en daarna voeg je geheugen toe, leverde dat een BSOD op.

Alleen op 1 bepaald type computer. We hebben er een stuk op 10, door de hele org heen.

Uninstallde je eerst realplayer, dan leverde het geen BSOD op. Je kon hem na de mem upgrade ook prima terug installen, ook geen probleem.

Op alle andere typen computers leverde het sowieso geen probleem op. Ook type computers die alleen qua CPU MHz verschilde (letterlijk 1GHz, ipv 733MHz, de 733 had er last van , de 1GHz niet, alhoewel die voor de rest precies hetzelfde was).

De 'logica' die hier achter zit is amper te bevatten. Zo zie je maar, een vers gemaakt MSI'tje moet je zeer zorgvuldig checken.
Helemaal mee eens. Daar gaat altijd de meeste tijd inzitten. Gelukkig is het al een heel stuk beter dan 3 jaar geleden, toen waren we met sommige lastige dingen een week bezig. Dan is het al gauw een afweging of je het dan 'toch maar niet met de hand doet'. Maar als je daar eenmaal aan begint, dan gaat het natuurlijk nooit goed werken.

Je leert zo wel heel erg veel van hoe Windows nou eigelijk in elkaar zit en met al die dingen omgaat. En over het algemeen krijg je het met de hand meestal ook niet aan de praat, als je zulke specifieke problemen hebt. Er blijven helaas altijd een paar combinaties van computers en/of applicaties die je nooit fijn aan de praat krijgt.

Maar het allergrootste voordeel van deze manier van werken vind ik wel, dat je de zaak ook echt onder controle hebt. Geen 'prutsen tot het werkt en dan afblijven' meer! Je hebt echt grip op de hele zaak.

Verwijderd

Een gevleugelde uitspraak die bij ons op menig muur is te vinden:

"To err is human, but to really fuck it up requires a computer" ;)

  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
TCO is ook automatiseren van bedrijfsprocessen daarvoor hebben ze bijvoorbeeld HP Openview ontwikkeld DELL management etc etc elke grote fabrikant heeft zijn eigen tool.
Fout TCO heeft helemaal niets te maken met bedrijfsprocessen. Je creeert zelf een hogere TCO hierdoor als je bedrijfsprocessen gaat automatiseren. En trouwens met de fabrikanten die je noemt kun je de meeste bedrijfsprocessen niet eens automatiseren.
TCO is heel vaak erg theoreties en in de praktijk bijna niet te handhaven.
Wat wil je hiermee zeggen? TCO is gewoon een overzicht van kosten. En dit is wel degelijk te handhaven.
ITIL klink ook leuk... dit houd meestal in dat 1 persoon die beheer doet opeens nog 3 of 4 andere taken erbij krijgt met administratie waar je misselijk van wordt.
En zo kwantificeer je de kosten, door de administratie. Hoeveel uur ben je met iets bezig, wat heb je gedaan, het aantal RFC's/Incidenten/Problems etc etc


Ik denk trouwens dat dit topic beter een andere naam kan krijgen. Iets als effectief beheer WAN/LAN (of uit het oude MCSE boek MAN)

De reacties zoals ik ze hier lees zijn puur technisch en dat is het grote probleem in de IT sector op dit moment. Micromanagement in plaats van Macro en Meso. Er wordt niet gekeken over de grenzen. IT is een verzamelnaam voor activiteiten die alle facetten omhelzen in een automatiseringsproces, inclusief ontwikkelen en beheer EN administratie.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Danster schreef op 26 April 2003 @ 18:05:
...
De reacties zoals ik ze hier lees zijn puur technisch en dat is het grote probleem in de IT sector op dit moment. Micromanagement in plaats van Macro en Meso. Er wordt niet gekeken over de grenzen. IT is een verzamelnaam voor activiteiten die alle facetten omhelzen in een automatiseringsproces, inclusief ontwikkelen en beheer EN administratie.
Ik heb daar een paar keer een uitgebreide presentatie over gemaakt, maar daar was inderdaad heel weinig interesse in. De managers vonden het nog te technisch, terwijl de meeste beheerders dat maar onzin vonden.

ITIL zit net weer te veel aan de andere kant: dat beschrijft alleen de organisatie en de procedures, het zegt net weer te weinig over de technische invulling.

TCO zit dan nog het beste in het midden, alhoewel het inderdaad een goede zaak zou zijn als de IT-ers en het management elkaar beter konden verstaan. Nu is het nog teveel natte-vinger werk aan beide kanten.

Het management heeft ook al snel de neiging om de buzzwords zoals 'e-commerce' en 'data-warehousing' tot strategisch doel te verheffen, waarna de techneuten beloven dat ze dat in orde gaan maken. "Tuurlijk kan dat!"

Als je van alle projecten eerst de TCO in kaart brengt, sneuvelt de helft al bij voorbaat. Maar dat is nog te weinig een criterium om dat project dan af te lasten of nog eens drastisch te herzien. En dat is een heel belangrijke reden waarom de IT sector nu zo in het slop zit.

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 00:24

Arfman

Drome!

DiGuru schreef op 26 April 2003 @ 14:52:
Ok. Laten we het er op houden, dat ik een eikel ben en geen idee heb waar ik het over heb.

Tussen twee haakjes, bij DSM gebruiken ze dit al jaren wereldwijd voor alle werkstations, en ik heb het bedacht en gemaakt omdat ZEN en SMS niet voldeden. Maar dat zul je toch wel niet geloven.
Dat geloof ik inderdaad niet. 2 producten (waarvan ZEN ondertussen na NetWare het vlaggeschipproduct van Novell is geworden zo ongeveer) werken niet, voldoen niet, maar jouw aaneenrijging van .ini files en batchfiles werken wel ?

OF de beheerders bij DSM zijn oerstom, of jij loopt gewoon te trollen. Verder is "TCO" zoiets abstracts, dat wordt op strategisch niveau bepaald. Jij begint weer met allere detaillistische, technische zaken te strooien die met heel TCO op strategisch niveau geen z*k te maken hebben.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


  • Danster
  • Registratie: November 2002
  • Laatst online: 19-07-2024
DiGuru schreef op 26 April 2003 @ 18:36:
[...]

Als je van alle projecten eerst de TCO in kaart brengt, sneuvelt de helft al bij voorbaat. Maar dat is nog te weinig een criterium om dat project dan af te lasten of nog eens drastisch te herzien. En dat is een heel belangrijke reden waarom de IT sector nu zo in het slop zit.
Dat zijn ze bij ons nu aan het herzien en zonder een uitgebreide kosten/baten analyse wordt er geen project of aankoop meer goedgekeurd.

Er is in het verleden teveel uitgegeven door "hard- en softwareware geile" techneuten zonder erbij na te denken. Tijd voor verandering dus.

  • DiGuru
  • Registratie: April 2003
  • Laatst online: 05-09-2008
Danster schreef op 26 april 2003 @ 19:47:
[...]


Dat zijn ze bij ons nu aan het herzien en zonder een uitgebreide kosten/baten analyse wordt er geen project of aankoop meer goedgekeurd.

Er is in het verleden teveel uitgegeven door "hard- en softwareware geile" techneuten zonder erbij na te denken. Tijd voor verandering dus.
Inderdaad. Het wordt tijd dat de IT ook volwassen wordt en zich gaat houden aan dezelfde regels als alle andere bedrijfstakken.

Ik denk, dat het in dit verband het belangrijkste is, dat IT-ers (en dan vooral de beheerders) zich gaan realiseren, dat ze service verlenen. Goede service voor een goede prijs. En dat het bedrijf en de 'gebruikers' (waardeloze term) dus hun klanten zijn.

Gewoon alles pragmatisch en projectmatig aanpakken, en je niets aantrekken van wat de marktleiders vinden dat je moet doen en kopen. Het moet gewoon goed werken en zo weinig mogelijk kosten.

En inderdaad, met het y2k 'probleem' is er een boekje opengegaan en zijn de klanten gelukkig een stuk kritischer geworden. Maar toch leeft in de IT nog te veel het idee dat ze 'toch niet zonder ons kunnen' en dat het 'wel weer goed komt'.

Dat komt nog uit de jaren 90, toen het allemaal niet opkon en IT sexy was. Dat is nu veranderd en ook wij IT-ers moeten met de nieuwe tijd mee en anders leren werken.

Gelukkig is het nog steeds zo, dat als je een mooi stukje werk aflevert, dat er dan nog wel tien andere dingen zijn waar je ook eens naar moet kijken. Je moet gewoon ook "Nee." durven zeggen. Als de klant er niet beter van wordt, moet je dat ook eerlijk vertellen en niet toch maar doen omdat het toch weer geld oplevert.

  • Predator
  • Registratie: Januari 2001
  • Laatst online: 19:38

Predator

Suffers from split brain

DiGuru, je kan het blijkbaar weer niet laten om over Progs te beginnen wat naast de discussie is.

Het is genoeg geweest.

Dit is geen topic over wat voor progs jij allemaal geschreven hebt :/
Als je niet ontopic kan discussieren dan hoef je ook geen discussie te starten.
Je was gewaarschuwd.

[ Voor 6% gewijzigd door Predator op 26-04-2003 20:34 ]

Everybody lies | BFD rocks ! | PC-specs

Pagina: 1

Dit topic is gesloten.