programma om duplicaten mee te wissen op basis deel van naam

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • blacknoise
  • Registratie: April 2005
  • Laatst online: 10-10-2024
Hoi,
Ik zoek een programma om duplicate files mee te verwijderen op basis van een x aantal characters aan het eind van de filenaam, zoals _2.jpg, t/m _23.jpg
Ik heb een file recovery gemaakt en nu heb ik soms wel 60 duplicates van dezelfde file. Ik heb duplicate cleaner geprobeerd maar het beste wat ik daarmee kon doen was md5 hash vergelijking, maar verrreweg de meeste van de gerecoverede files hebben blijkbaar een andere hash.
Ook heb ik een aantal andere copy en duplicate removal programma;s geprobeerd, zelfs file renamer basic, maar allemaal zonder resultaat. Ik moet dus iets hebben wat uitgebreide opties voor bestands naam selectie heeft en tegerlijkertijd in de gaten houd dat het duplicates zijn en niet het origineel verwijderen.
Er zitten namelijk ook een aantal files tussen die bijv 234_15.jpg heten maar wel de enige instance van de file zijn.

Acties:
  • 0 Henk 'm!

  • F_J_K
  • Registratie: Juni 2001
  • Niet online

F_J_K

Moderator CSA/PB

Front verplichte underscores

Een andere hash = een andere inhoud. Je wilt het dus met de hand doen, de files zijn niet identiek en als ook een gelijke filename niet helpt dan wordt het handwerk.

Suggestie: sorteer op naam en zet in de verkenner of een andere tool een redelijk grote thumbnail aan. Dan is het simpelweg per tig selecteren en deleten (of sneller: juist alleen de unieke files selecteren).

'Multiple exclamation marks,' he went on, shaking his head, 'are a sure sign of a diseased mind' (Terry Pratchett, Eric)


Acties:
  • 0 Henk 'm!

  • blacknoise
  • Registratie: April 2005
  • Laatst online: 10-10-2024
De files zijn idd niet identiek nadat ze uit de recover gekomen zijn, maar ik zie wel dat t allemaal dezelfde file is geweest voor de recovery, Ze hebben wel overeenkomsten in de naam, _1 tm soms wel _58 als suffix, voor de jpg extensie, ik hoop dus dat daar een programma voor is.
Of... een recover programma wat die duplicates niet maakt. Ik gebruik nu recuva, en ik zie in de lijst daarvan na het lezen hele rijen dezelfde filename. Met de hand selecteren in recuva is voor nu een optie maar het zijn zoveel files dan ben ik dagen bezig. Ik heb getdataback geprobeerd maar die gaf alles nummers en geeft filename, en ik heb ontrack reasyrecovery geprobeerd maar die crashte na 3 uur op 99% -.-

Acties:
  • 0 Henk 'm!

  • Roytoch
  • Registratie: November 2007
  • Laatst online: 21-07 11:40

Roytoch

Nietes

Misschien iets simpels als per bestandsnaam checken wat degene is met de hoogste suffix, de rest weggooien? Beetje lowtech en niet-optimale oplossing inderdaad maar misschien wel iets wat redelijk simpel in elkaar te zetten is...

Edit: Ik bedoel dus in een programmeer/scripttaal... kom zelf niet verder dan PHP maar daarmee zou het wel kunnen bijvoorbeeld.

[ Voor 22% gewijzigd door Roytoch op 04-01-2012 12:38 ]

Welles


Acties:
  • 0 Henk 'm!

  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 10-07 12:56

MAX3400

XBL: OctagonQontrol

Of misschien blij zijn dat je recovery-programma zijn best doet en een dagje gaan zitten om handmatig de bestanden te openen, te bekijken en dan wel/niet handmatig weg te gooien? ;)

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


Acties:
  • 0 Henk 'm!

  • Pinooo
  • Registratie: Januari 2007
  • Laatst online: 18:11
Kijk eens naar de optie forfiles in command prompt

Acties:
  • 0 Henk 'm!

  • blacknoise
  • Registratie: April 2005
  • Laatst online: 10-10-2024
Ik heb naar forfiles gekeken, alleen die laat helaas niet het origineel staan denk ik als ik een filter opgeef.
Ik denk overigens dat ik beter naar een programma dan recuva kan kijken misschien?
Ik zag zonet de lijst met dubbele mp3tjes en realiseerde me dat er geen andere optie was dan handmatig klikken aangezien het met al die duplicaten ettelijke terabytes zou zijn, wat niet eens op mn schijven past.

Acties:
  • 0 Henk 'm!

  • Arjan
  • Registratie: Juni 2001
  • Niet online

Arjan

copyright is wrong

Als je toegang hebt tot unix software kun je met een simpel scriptje een voorselectie maken van alle files die dezelfde grootte hebben. Wellicht dat het met windows commandline tools ook kan, maar daar kan ik je verder niet mee helpen :)

oprecht vertrouwen wordt nooit geschaad


Acties:
  • 0 Henk 'm!

  • Perkouw
  • Registratie: Juli 2005
  • Laatst online: 19:12

Perkouw

Moderator General Chat
Ik weet niet om hoeveel files het precies gaat maar ik zou het met de hand doen en mezelf al gelukkig prijzen dat de recovery gelukt is. En zoals F_J_K zegt, sorteer alles op naam, grote thumbnails en het word al een stuk gemakkelijker.

[ Voor 26% gewijzigd door Perkouw op 04-01-2012 14:14 ]


Acties:
  • 0 Henk 'm!

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

F_J_K schreef op woensdag 04 januari 2012 @ 11:49:
Een andere hash = een andere inhoud.
Klopt. Wat natuurlijk kan, is dat een file corrupt is geraakt. Heb het ooit gehad bij een berg MP3tjes, daar zat allemaal garbage in, dus je had er niets meer aan, hoewel de bestandsnamen wel klopten.

Dat heb ik destijds allemaal gewoon weggeflikkerd omdat me die files niet zo heel veel interesseerden :P

Acties:
  • 0 Henk 'm!

  • AzzKickah
  • Registratie: Juni 2001
  • Laatst online: 14-07 20:58

AzzKickah

06-CENSORED

Met dit tooltje kun je heel veel bestanden op basis van regels die je zelf instelt renamen: http://www.den4b.com/?x=g...ct=renamer&type=installer

Misschien kun je op die manier een paar regels aanmaken die alle files met een toevoeging als _293 of wat dan ook eruit filtert en hernoemt naar iets als 'remove' zodat je ze daarna makkelijk kunt sorteren in Explorer en dan in 1x Shift+Del kunt doen?

Acties:
  • 0 Henk 'm!

  • blacknoise
  • Registratie: April 2005
  • Laatst online: 10-10-2024
Het gaat om een paar honderdduizend files (de originelen) en met die duplicates erbij is het enkele miljoenen files..
Viewen met thumbnails gaat niet dan loopt explorer vast.
Ik heb helaas geen unix systeem.maar ik was inderdaad ook al wezen kijken naar de mogelijkheid om scriptjes schrijven in windows. Helaas ben ik niet echt een scripter en moet ik het min of meer doen met de scriptjes die ik vind op internet.
Daar heb ik tot nu toe wel wat aan gehad. Ik kon iig ong 500.000 plaatjes wissen via cmd die kleiner waren dan 20kb. Met explorer kon ik daarvoor haast niet eens in de map kijken want dan liep alles vast.

en thanx azzkickah, ik zal t tooltje uitproberen:)

[ Voor 4% gewijzigd door blacknoise op 04-01-2012 14:33 ]


Acties:
  • 0 Henk 'm!

  • Alex3
  • Registratie: Juli 2011
  • Laatst online: 25-06 16:36
Zoiets kun je met een spreadsheet oplossen: zet de bestandsnamen in een kolom vanaf B2. Sorteer de namen dan alfabetisch. Aangenomen dat elke bestandsnaam één keer "_" bevat en één punt, en je van elk bestand met dezelfde naam voor de "_" en van hetzelfde type er één wilt bewaren, dan vul je het als volgt verder in:
C2: =VIND.ALLES("_";B2;1)
D2: =VIND.ALLES(".";B2;1)
E2: =DEEL(B2;1;C2-1)
F2: =DEEL(B2;D2+1;10)
G2: =EN(E1=E2;F1=F2)
en kopieer dan C2 t/m G2 naar alle andere regels waar bestandsnamen staan. Vul willekeurige namen in rij 1 in. In kolom A zet je overal del. Selecteer de hele tabel en maak een autofilter. Selecteer in kolom G de waarde WAAR met het autofilter. Kopieer nu de kolommen A en B naar een .bat-bestand en vervang de eerste regel door
@echo off
Pagina: 1