Discussion:
David Zuckermanns Zufallszahlengenerator verständlich erklärt?
(zu alt für eine Antwort)
e***@web.de
2020-10-16 08:54:10 UTC
Permalink
Hallo!

Im Jahr 2016 ging durch die Medien, dass der Informatikprofessor
David Zuckermann es geschafft habe, an einem Computer echte
Zufallszahlen zu erzeugen.

<https://cns.utexas.edu/news/computer-scientists-explain-new-random-number-generator>

<https://theconversation.com/how-random-is-your-randomness-and-why-does-it-matter-59958>

Unter <https://eccc.weizmann.ac.il//report/2015/119/> gibt es ein
Paper von ihm und seinem Co-Autor.
Es hat den Titel
"Explicit Two-Source Extractors and Resilient Functions"
und scheint damit irgendwie in Zusammenhang zu stehen.

Wie vermnutlich beabsichtigt verstehe ich als Normalsterblicher
da nicht mal Bahnhof.

Abgesehen von diesem Paper habe ich im Internet bisher etliche
Darlegungen zu diesem Thema gefunden, in denen viel jubiliert
aber nichts wirklich erklärt wird.

Meine Frage lautet also:

Gibt es inzwischen eine Abhandlung dazu, wie er das gemacht
hat, die für Normalsterbliche verständlich ist?

Mit freundlichem Gruß

Ulrich
Ralf Goertz
2020-10-16 10:25:37 UTC
Permalink
Am Fri, 16 Oct 2020 01:54:10 -0700 (PDT)
Post by e***@web.de
Hallo!
Im Jahr 2016 ging durch die Medien, dass der Informatikprofessor
David Zuckermann es geschafft habe, an einem Computer echte
Zufallszahlen zu erzeugen.
Nein, ich verstehe das ein bisschen anders. Echte Zufallszahlen kann man
nicht mit einem Algorithmus erzeugen, das sind immer
Pseudozufallszahlen. Wenn man echte Zufallszahlen braucht, benötigt man
eine Quelle. Im Computer kommen dafür Tastatureingaben oder
Mausbewegungen in Frage. Die sind zwar zufällig, aber das heißt ja nicht
lange nicht, dass zum Beispiel die zeitlichen Abstände, mit denen die
Tasten beim Schreiben gedrückt werden, direkt brauchbar sind, um etwa
eine Gleichverteilung zu generieren. Sie sind nur die Inputs für
Funktionen, die daraus Zufallszahlen machen. Das Problem dabei ist, dass
dieser Input noch korreliert ist. Dadurch ist weniger Zufall drin, als
sein könnte. Das Maß für die Zufälligkeit ist die Entropie:
<https://de.wikipedia.org/wiki/Entropie_(Informationstheorie)>.
Post by e***@web.de
<https://cns.utexas.edu/news/computer-scientists-explain-new-random-number-generator>
<https://theconversation.com/how-random-is-your-randomness-and-why-does-it-matter-59958>
Unter <https://eccc.weizmann.ac.il//report/2015/119/> gibt es ein
Paper von ihm und seinem Co-Autor.
Es hat den Titel
"Explicit Two-Source Extractors and Resilient Functions"
und scheint damit irgendwie in Zusammenhang zu stehen.
Wie vermnutlich beabsichtigt verstehe ich als Normalsterblicher
da nicht mal Bahnhof.
Abgesehen von diesem Paper habe ich im Internet bisher etliche
Darlegungen zu diesem Thema gefunden, in denen viel jubiliert
aber nichts wirklich erklärt wird.
Gibt es inzwischen eine Abhandlung dazu, wie er das gemacht hat, die
für Normalsterbliche verständlich ist?
So wie ich das Abstract lese, haben sie es geschafft, mehr Entropie aus
diesen schwachen Zufallsquellen herauszubekommen, als das mit
vorhergehenden Methoden der Fall war, weshalb es nun viel einfacher ist,
echte Zufallszahlen im Computer zu benutzen, wie sie vor allem in der
Kryptografie gebraucht werden. Das macht diese sicherer. Wie in deinem
ersten link schon steht:

„Zuckerman says that although there are already methods for producing
high-quality random numbers, they are very computationally demanding.
His method produces higher quality randomness with less effort.“
Loading...