[redhat] Websites loggen zonder squid?

Pagina: 1
Acties:

  • jsiegmund
  • Registratie: Januari 2002
  • Laatst online: 12-05 10:33
Google bood geen fijne resultaten aan, en de database van freshmeat is down dus wil ik het maar even hier vragen. Ik zoek een klein maar effectief programmaatje wat van de gebruikers van mijn gateway bijhoud welke websites ze bezoeken (en dan dus de www url's, niet de IP's). Het beste zou zijn een directory met voor elk IP een apart bestandje, met daarin een simpel lijstje van alle bezochte sites. Ik heb dus gezocht maar kan niets vinden wat in de buurt komt, alleen oplossingen met squid en die zoek ik dus niet.

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 15:35
Kan alleen met squid.
Andere optie: zelf een DNS cache draaien en dan de logs greppen op wie welke lookups doet.

Squid kan je trouwens ook transparant maken, werkt hier heerlijk, kan je ook lekker zooi eruitfilteren (als ik nu naar een bekende keygen/serial/crack site ga, hoef ik niet meer "bang te zijn voor de bus" ;))

Verwijderd

een nadeel van squid is dat de urls ok moeten zijn. (bij mij provider heb ik een vhost gedoe.... dus dat wordt http://username.provider.nl/ maar mij username is daniel_e dan komt er dus een _ in de url ....dat mag niet van squid. (en ook niet volgens de standaard)

Verwijderd

Kan alleen met squid??? Wat dacht je van een willekeurige ander http content scanner/proxy, eg junkex zonder filterings mogelijkheden oid? En anders schrijf je zelf toch een proxy? De opzet zou simpel moeten zijn:

- Open een daemon socket
- Zodra er iemand connect naar de daemon socket, log je het url
- Forward de connectie.

  • jsiegmund
  • Registratie: Januari 2002
  • Laatst online: 12-05 10:33
Ok het wordt toch maar squid dan, bedankt voor de info