2008-02-29, 11:54
  #1
Bannlyst
Hej, du som knäcker hashar och så vidare, vart fixar du dina ordlistor ifrån?

Jag har sökt och sökt och sökt men hittar aldrig några stor (gigantiska) ordlistor med bra kvalité, jag söker en svensk samt engelsk och andra randomlistor (mest använda lösenord osv) Jag har sökt i minst 2 timmar på google idag och bara fått fram döda länkar, wordlist.exe och massa skit.

Kan ingen ladda upp en bra lista eller ge tips på vart man fixar det ifrån?

Tack
Citera
2008-02-29, 12:03
  #2
Medlem
yordonyxs avatar
http://www2.bigupload.com/download_f..._file=25F7F34B



Rätt stor ordlista 214.7mb
Citera
2008-02-29, 12:43
  #3
Medlem
Jävlar vilken maffig ordlista Vilket språk är den på? Är det blandat?
Citera
2008-02-29, 12:57
  #4
Medlem
yordonyxs avatar
Svensk ordlista är det.
Kanske finns engelska bland annat, men har inte kollat igenom den så noga.
Citera
2008-02-29, 13:14
  #5
Medlem
Spejnars avatar
Allt ni behöver:
http://www.theargon.com/achilles/wor...onlistver2.zip

83mb zippad, 2gb ozippad.
Citera
2008-02-29, 14:27
  #6
Medlem
suqas avatar
Citat:
Ursprungligen postat av Spejnar
Allt ni behöver:
http://www.theargon.com/achilles/wor...onlistver2.zip

83mb zippad, 2gb ozippad.
Lite OT; Trodde inte det var möjligt att komprimera en fil så kraftigt
Citera
2008-02-29, 14:34
  #7
Bannlyst
Antar det är för den komprimerar varje tecken eller någonting? Vet inte. Men är den 2gb är det otroligt. Skall kanske ta o ladda upp min samling med.. 1.21GByte ozippad, men det är något otroligt random så att..

Någon som vet ett program som klarar av extremt stora dokument, och kan sortera, och ta bort dubbla ord?

Skulle vilja slå ihop mina listor till en stor utan dubletter o sånt..

ot kanske. Men vet du programet jag söker så skicka gärna ett pm eller skriv i tråden.. Notepad o word fungerar INTE.. excell tror jag inte heller kan det..
Citera
2008-02-29, 14:36
  #8
Medlem
stnmrks avatar
Citat:
Ursprungligen postat av olol123
Antar det är för den komprimerar varje tecken eller någonting? Vet inte. Men är den 2gb är det otroligt. Skall kanske ta o ladda upp min samling med.. 1.21GByte ozippad, men det är något otroligt random så att..

Någon som vet ett program som klarar av extremt stora dokument, och kan sortera, och ta bort dubbla ord?

Skulle vilja slå ihop mina listor till en stor utan dubletter o sånt..

ot kanske. Men vet du programet jag söker så skicka gärna ett pm eller skriv i tråden.. Notepad o word fungerar INTE.. excell tror jag inte heller kan det..

testa notepad++
Citera
2008-02-29, 14:44
  #9
Bannlyst
Citat:
Ursprungligen postat av stnmrk
testa notepad++

Skall genast testa.. Vet du om den kan sortera ord, och få dem att ta bort dubletter?
Citera
2008-02-29, 14:48
  #10
Bannlyst
Hmm, den lagga ihop, o fick not responding, och windows fråga om jag ville skicka felmedelande när jag försökte öppna min lista på 2gb ord..
Citera
2008-02-29, 16:07
  #11
Medlem
stnmrks avatar
Citat:
Ursprungligen postat av olol123
Skall genast testa.. Vet du om den kan sortera ord, och få dem att ta bort dubletter?
sortera i bokstavsårdning kan du ju göra med ms exel, dubletter vet jag inget om
Citera
2008-02-29, 22:41
  #12
Medlem
j_tomass avatar
Citat:
Ursprungligen postat av olol123
sortera ord, och få dem att ta bort dubletter?
Kan man göra med ett litet perl-script

Kod:
#!C:\Perl\bin\perl

# Use: perl wordlist.pl <INFIL> <UTFIL>
# Program som plockar ord från ett text dokument INFIL, sorterar bort allt annat
# än bokstäver, sorterar orden i bokstavsordning, tar bort dubletter
# och sparar dem i UTFIL
#

use strict;
my ($InFilename, $OutFilename, $i, $Line, @Words, $Single_word, @Wordlist);
my ($Previous);

$InFilename = $ARGV[0];
$OutFilename = $ARGV[1];

open(INFILE, '<'.$InFilename) or die "Cannot open file $InFilename \n";

$i = 0;

while(<INFILE>) {
	$Line = $_;
        chomp($Line);
        @Words = split(/\s/, $Line); #Split each row at whitespace chracters
        foreach $Single_word (@Words) {
        	$Single_word =~ tr/a-zA-ZåäöÅÄÖ//cd; #Strip away nonletters
                $Wordlist[$i] = lc $Single_word;   #make lowercase
         	$i++;
        }
}
close(INFILE);
close (OUTFILE);

@Wordlist = sort(@Wordlist);

open(OUTFILE, '>'.$OutFilename) or die "Cannot open file $OutFilename \n";
foreach $Single_word (@Wordlist) {
	if ($Previous ne $Single_word) { #Don't print the same word twice
	        print OUTFILE $Single_word."\n";
        	$Previous = $Single_word;
        }
}
close (OUTFILE);
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in