Ich habe in einem Mathematikbuch folgendes gefunden -->
y = f(x)
dy = f(x + dx) - f(x)
y = x ^ 2
dy = (x + dx) ^ 2 - x ^ 2
dy = 2 * x * dx + (dx) ^ 2
Jetzt kommt das, was ich nicht verstehe -->
dy = 2 * x * dx
Wenn dx unendlich klein wird, falls das vorgesehen ist, dass es das wird, warum verschwindet (dx) ^ 2, aber 2 * x * dx verschwindet nicht ?
Wenn dx gegen Null geht, dann würde ich erwarten, dass 2 * x * dx zu 2 * x * 0 = 0 wird, also auch verschwindet.
Wo ist hier mein Denkfehler ?