/ Forside / Teknologi / Internet / Sikkerhed / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Sikkerhed
#NavnPoint
stl_s 37026
arlet 26827
miritdk 20260
o.v.n. 12167
als 8951
refi 8694
tedd 8272
BjarneD 7338
Klaudi 7257
10  molokyle 6481
Random data
Fra : Lene Larsen


Dato : 31-12-08 12:56

Man har programmer der hævder at kunne fremstille "True Random Bits" og man
har hardware der
kan kobles til en pc for at leverer Random data som hævdes at "virkelig
være" random, til brug
for bla. kryptering.

Jeg har forgæves søgt efter et program der kan analyserer en given fil for
at få information om
kvaliteten af den idet filen hævdes at være rendom data, men har ikke fundet
noget brugbart.

Er der en her der kan informerer mig om de metoder der anvendes til at
vurderer kvaliteten af en
given fil eller filer, for om det kan betegnes som true random data, og som
kan vise eventuelle
tegn på, at den er genereret ud fra en alogritme der viser tegn på
gentagelser og andre tegn på svagheder.

Man kan jo f.eks i et program som Winhex se en grafisk analyse at
fordelingen af de 255 tegn, men som
vi ved så fortælder det jo ikke noget om kvaliteten, selv om man kan undre
sig over at en fil der "er helt flad" altså totalt random at se på, ikke
skulle være det.

Mvh.

Lene






 
 
Stig Johansen (31-12-2008)
Kommentar
Fra : Stig Johansen


Dato : 31-12-08 13:49

Lene Larsen wrote:

> Man har programmer der hævder at kunne fremstille "True Random Bits" og
> man har hardware der
> kan kobles til en pc for at leverer Random data som hævdes at "virkelig
> være" random, til brug
> for bla. kryptering.

Hvor random er random ?
Det er godt nok mange år siden jeg læste om et forslag til random
generation.

Jeg kan ikke huske det eksakt, men det var noget med at man på et givet
tidspunkt kombinerede:
- Lufttrykket over Azorerne
- Luftfugtigheden i Mombassa
- Vindhastigheden i Alperne
- Intensiteten af solpletter
- Bølgehøjden i Vesterhavet
osv..
Dengang var det umuligt, men data burde være tilgængeligt på nettet.

--
Med venlig hilsen
Stig Johansen

Lene Larsen (31-12-2008)
Kommentar
Fra : Lene Larsen


Dato : 31-12-08 20:58


> Hvor random er random ?
> Det er godt nok mange år siden jeg læste om et forslag til random
> generation.
>
> Jeg kan ikke huske det eksakt, men det var noget med at man på et givet
> tidspunkt kombinerede:
> - Lufttrykket over Azorerne
> - Luftfugtigheden i Mombassa
> - Vindhastigheden i Alperne
> - Intensiteten af solpletter
> - Bølgehøjden i Vesterhavet
> osv..
> Dengang var det umuligt, men data burde være tilgængeligt på nettet.
>
> --
> Med venlig hilsen
> Stig Johansen

Det er rigtigt, informationerne er der ude på nettet et eller andet sted,
men jeg syntes det var interessant at
høre om det på dette forum da personer der har interesse og viden om emnet
nok kommer forbi her.

Og mit spørgsmål var ikke hvordan man generarer random data, men hvordan man
analycerer et output for at se på "kvaliteten" af dette output.... i
krypterings henseende bla.

Lene




Stig Johansen (01-01-2009)
Kommentar
Fra : Stig Johansen


Dato : 01-01-09 08:26

Lene Larsen wrote:

> Og mit spørgsmål var ikke hvordan man generarer random data, men hvordan
> man analycerer et output for at se på "kvaliteten" af dette output.... i
> krypterings henseende bla.

Det er jeg med på, men jeg forstår ikke formålet.

Men hvis du vil analysere spredningen af data i en given fil, ville jeg nok
skrive en stump program, der plotter værdier ind i et givet
koordinatsystem.

Ud fra et sådant plot burde man kunne se om der danner sig et mønster, eller
det er true random.

--
Med venlig hilsen
Stig Johansen

Allan Olesen (01-01-2009)
Kommentar
Fra : Allan Olesen


Dato : 01-01-09 14:00

Stig Johansen wrote:
> Men hvis du vil analysere spredningen af data i en given fil, ville jeg nok
> skrive en stump program, der plotter værdier ind i et givet
> koordinatsystem.
>
> Ud fra et sådant plot burde man kunne se om der danner sig et mønster, eller
> det er true random.

Min erfaring med tilfældige data er, at hvis de ser tilfældige ud, er de
næppe tilfældige.

Tilfældige data arrangerer sig ikke pænt og jævnt, medmindre man har
rigtigt mange af dem - hvor "rigtigt mange" er flere, end man skulle
forvente.

Derudover siger fordelingen heller ikke noget om forudsigeligheden, selv
om begrænsning af forudsigelighed ofte er hovedformålet med at generere
tilfældige data. Hvis du tæller fra 1 til 1.000.000, vil dataene jo også
være pænt og jævnt fordelte.

Mit gæt er, at man simpelthen ikke kan teste tilstrækkeligt sikkert for
forudsigelighed, da man aldrig kan vide, om testalgoritmen kan
gennemskue de afhængigheder og funktioner, der ligger til grund for
forudsigeligheden. Men det er ikke et emne, jeg har specifik viden om.

--
Allan Olesen

Stig Johansen (01-01-2009)
Kommentar
Fra : Stig Johansen


Dato : 01-01-09 18:38

Allan Olesen wrote:

> Stig Johansen wrote:
>> Men hvis du vil analysere spredningen af data i en given fil, ville jeg
>> nok skrive en stump program, der plotter værdier ind i et givet
>> koordinatsystem.
>>
>> Ud fra et sådant plot burde man kunne se om der danner sig et mønster,
>> eller det er true random.
>
> Mit gæt er, at man simpelthen ikke kan teste tilstrækkeligt sikkert for
> forudsigelighed, da man aldrig kan vide, om testalgoritmen kan
> gennemskue de afhængigheder og funktioner, der ligger til grund for
> forudsigeligheden. Men det er ikke et emne, jeg har specifik viden om.

Det tror jeg heller ikke man kan.
Så vidt jeg forstår har Lene en given fil, hvor der skal tests på
'kvalitet'.

Hvis vi antager at tilfældig betyder, at alle tal inden for et udfaldsrum
har lige stor sandsynlighed for at blive valgt, kan vi sammenligne det med
terningkast.

Hvis vi slår 3 slag med en terning, er der ingen naturlov, der forbyder 3
seksere, eller ener+toer+treer.

Ud fra disse kast kan man ikke vurdere 'kvaliteten' af tilfældigheder.

--
Med venlig hilsen
Stig Johansen

Andreas Plesner Jaco~ (01-01-2009)
Kommentar
Fra : Andreas Plesner Jaco~


Dato : 01-01-09 15:24

On 2008-12-31, Stig Johansen <wopr.dk@gmaill.com> wrote:
>
> Det er godt nok mange år siden jeg læste om et forslag til random
> generation.
>
> Jeg kan ikke huske det eksakt, men det var noget med at man på et givet
> tidspunkt kombinerede:
> - Lufttrykket over Azorerne
> - Luftfugtigheden i Mombassa
> - Vindhastigheden i Alperne
> - Intensiteten af solpletter
> - Bølgehøjden i Vesterhavet
> osv..
> Dengang var det umuligt, men data burde være tilgængeligt på nettet.

Og netop af den grund er det ualmindeligt dårlige kilder til entropi, da
alle andre har adgang til de samme tal, og dermed kan genskabe din
pseudo-tilfældige sekvens.

--
Andreas

Andreas Plesner Jaco~ (01-01-2009)
Kommentar
Fra : Andreas Plesner Jaco~


Dato : 01-01-09 15:27

On 2008-12-31, Lene Larsen <Lene.M.L@forum.dk> wrote:

> Man har programmer der hævder at kunne fremstille "True Random Bits" og man

Det kan de ikke.

> har hardware der kan kobles til en pc for at leverer Random data som
> hævdes at "virkelig være" random, til brug for bla. kryptering.
>
> Jeg har forgæves søgt efter et program der kan analyserer en given fil for
> at få information om kvaliteten af den idet filen hævdes at være
> rendom data, men har ikke fundet noget brugbart.

Det korte svar er: Det kan ikke måles hvor tilfældige data er.
Det svar kan blive ret matematisk, se bl.a.
http://en.wikipedia.org/wiki/Randomness#Randomness_measures_and_tests

Eller for et lidt lettere syn på det:
http://www.random.org/analysis/dilbert.jpg

Random.org har også lidt andet tekst om problemet.

--
Andreas

Hans Jørgen Jakobsen (01-01-2009)
Kommentar
Fra : Hans Jørgen Jakobsen


Dato : 01-01-09 18:01

On Wed, 31 Dec 2008 12:56:18 +0100, Lene Larsen wrote:
> Er der en her der kan informerer mig om de metoder der anvendes til at
> vurderer kvaliteten af en
> given fil eller filer, for om det kan betegnes som true random data, og som
> kan vise eventuelle
> tegn på, at den er genereret ud fra en alogritme der viser tegn på
> gentagelser og andre tegn på svagheder.

Donald Knuth: The art of computer programming Vol 2 har et kapitel(170 sider)
om random numbers. Det meste er om forskellige test af kvaliteten.
Matematik og statistik kræves for at få det fulde udbytte.
Jeg ved ikke om nogen har lavet det til færdige programer, som bare
kan fyres af.

/hjj

Jesper Lund (01-01-2009)
Kommentar
Fra : Jesper Lund


Dato : 01-01-09 19:42

Hans Jørgen Jakobsen wrote:

> Donald Knuth: The art of computer programming Vol 2 har et kapitel(170
> sider) om random numbers.

Du mener en deterministisk sekvens, der til visse formål (eksempelvis
simulering fra sandsynlighedsfordelinger) ser tilfældig ud.

--
Jesper Lund

Hans Jørgen Jakobsen (01-01-2009)
Kommentar
Fra : Hans Jørgen Jakobsen


Dato : 01-01-09 22:56

On 01 Jan 2009 18:41:56 GMT, Jesper Lund wrote:
> Hans Jørgen Jakobsen wrote:
>
>> Donald Knuth: The art of computer programming Vol 2 har et kapitel(170
>> sider) om random numbers.
>
> Du mener en deterministisk sekvens, der til visse formål (eksempelvis
> simulering fra sandsynlighedsfordelinger) ser tilfældig ud.
De første 38 sider er en gennemgang af diverse pseudo random generatorer.
Resten er metoder til analyse hvor god en given metode er.

/hjj
>

Lene Larsen (03-01-2009)
Kommentar
Fra : Lene Larsen


Dato : 03-01-09 09:20


> De første 38 sider er en gennemgang af diverse pseudo random generatorer.
> Resten er metoder til analyse hvor god en given metode er.
>
> /hjj

Tak for de svar der er kommet, dejligt at se man har holdt sig til emnet
Jeg har interesse i emnet, da mange former for kryptering afhænger af at
have adgang til random data af høj kvalitet, og det er jo nemt at ønske, men
som tråden har udviklet sig her, ses det at kontrollen af kvaliteten af de
random data kan være et problem.

Et af de programmer jeg har kikket på, der hævder at bruge stærk kryptering,
har en indbygget Phi test, hvor man efterfølgende kan teste den kryptering
programmet har udført, men at Phi testen viser at det er en poly alfabetisk
kryptering, viser jo ikke noget om eventuelle svagheder i random
generatoren. har jeg ret i den antagelse ?

Mvh.
Lene

Ps sender data med om phi testen

Phi Test
There are statistical tests that can be done on a file to see if it is
enciphered or created in a random manner or not. One such test is called the
Phi Test.
There are a few terms that have to be defined first. The first is Kappa sub
r (r for random) that for the 26-letter English alphabet is .0385. What this
value says is that there is a 3.85 percent chance of drawing any two letters
that are the same out of two urns that contain the 26-letter alphabet. The
second value is Kappa sub p (p for plaintext) that is equal to .0667 for
English. If you have two urns that each contain 100 letters in the
proportion in which they are used in normal text there is a 6.67 percent
chance of drawing any two letters that are the same.
The Kappa sub r value of .0385 for the 26-letter alphabet is equal to 1/26.
If you take the 30-letter Russian Cyrillic alphabet the Kappa sub r value is
..0333 or 1/30. For the 256 characters used by a computer the Kappa sub r
value is .00390625 or 1/256.
The Phi Test can determine whether a given frequency count reflects a
monalphabetic or a polyalphabetic encipherment. A frequency table for a
monalphabetic enciphered file will reflect the same distribution table as
text in normal use. A frequency table for a polyalphabetic enciphered file
will just reflect random text. To use it you first multiply the total number
of characters in a file by the total number minus one. If the total number
of characters is 17,539 then multiply 17,539 by 17,538. Then multiply this
product by the Kappa sub r value of .00390625. The result will be the
polyalphabetic expected Phi. I do not have a Kappa sub p value for the
256-character set on a computer. I suspect that it would be fairly close to
the Kappa sub p value for the 26-letter alphabet since most of the time you
would be enciphering English text. For the purposes of this test this value
is not needed.
Next take the frequency count of each character and multiply it by its
frequency count minus one. If the frequency count for character A is 461
then you multiply 461 by 460. When this is done for all 256 characters, add
the 256 products together to get one final value. This is the observed Phi
value. The following values are from a text file enciphered by the author.

File Name: yhm.tsc
File Size: 218,367
Expected Phi Value (Kappa Sub r): 186,265,345.000000
Observed Phi Value: 186,297,966.000000
Mean Value: 852.996094
Variance (s²): 980.921553
Standard Deviation: 31.319667

As you can see the observed Phi value is very close to the expected Phi
value Kappa Sub r. This means that the frequency count for all 256
characters is based on a polyalphabetic encipherment. In other words, the
frequency distribution for all 256 characters is completely random in
nature. If it had been a monalphabetic encipherment, the frequency
distribution would have been more in line with an expected Phi value Kappa
Sub p that would have been a value approximately 16 times larger than
186,265,345. The Mean Value for the frequency distribution, the Variance
(s²), and the standard deviation are also given.
An in depth explanation of both of the Phi and Chi tests is presented on
pages 377 to 382 in The Codebreakers by David Kahn and published by The
Macmillan Company.



Stig Johansen (03-01-2009)
Kommentar
Fra : Stig Johansen


Dato : 03-01-09 13:59

Lene Larsen wrote:

> Jeg har interesse i emnet, da mange former for kryptering afhænger af
> at have adgang til random data af høj kvalitet

Hvqis man anlægger en matematisk-logisk betragtning, så synes jeg at
problemet 'simply boils down to':
Idet enhver datastrøm består af 0'er og 1'er, så handler det om at finde en
tilfældighedsgenerator, der - i længden - har lige stor sandsynlighed for
hhv. 0 og 1.

Men igen - der er ikke nogen naturlov, der forbyder 3 0'er eller 3 1'er på
stribe.

Hvis det næste udfaldsrum er afhængigt/betinget af det foregående udfald,
vil jeg påstå, at der ikke er tale om tilfældige(random) data.

--
Med venlig hilsen
Stig Johansen

Anders Wegge Keller (01-01-2009)
Kommentar
Fra : Anders Wegge Keller


Dato : 01-01-09 19:58

"Lene Larsen" <Lene.M.L@forum.dk> writes:

> Man kan jo f.eks i et program som Winhex se en grafisk analyse at
> fordelingen af de 255 tegn, men som
> vi ved så fortælder det jo ikke noget om kvaliteten, selv om man kan undre
> sig over at en fil der "er helt flad" altså totalt random at se på, ikke
> skulle være det.

Du kan også lave et fladt histogram med sekvensen {0, 1, 2, 3,
.... 254, 255} gentaget et helt antal gange. Og det er ret usandsynligt
at få som et resultat af tilfældigheder.

--
/Wegge

Søg
Reklame
Statistik
Spørgsmål : 177577
Tips : 31968
Nyheder : 719565
Indlæg : 6409071
Brugere : 218888

Månedens bedste
Årets bedste
Sidste års bedste