Hi, ich habe eine kleine Informatikfrage die aber eher in Richtung-Mathe geht:
Ein Computer kann anfangs 1012 Schlüssel pro Minute probieren.
Die Leistung verdoppelt sich Regelmäßig.
Ab welcher Zeit zwischen zwei Verdopplungen der Rechenleistung kann der Angriff innerhalb von 10 Jahren erfolgreich beendet werden, wenn der Schlüssel eine Länge von 60bit hat.
Rechnung :
1012 Schlüssel/Minute
60 bit = 260 ≈ 1018 Schlüssel
Ich komme schon ohne die Verdopplungszeit auf 1018 / 1012= 1000000 Minuten ≈ 1,9 Jahre
Ist das ein Fehler in der Aufgabenstellung ? Ich gehe mal nicht davon aus das sich die Leistung verringern soll ...