Es gibt da tatsächlich mehrere Theorien und es ist nicht ganz geklärt, wie man wirklich den Fehler einer zusammengesetzten Größe zu definieren hat. Selbst wenn man das in den Lehrbüchern nachschlägt, findet man mitunter unterschiedliche Wege mit für sich genommen plausiblen Begründungen.
Ich werde mal die beiden gängigsten kurz darlegen und erläutern, wann sie sinnvoll sind.
1.) Die erste Methode basiert auf der Gaußschen Methode der kleinsten Quadrate und ist vor allem für statistische Fehler zu empfehlen, die in erster Näherung gemäß einer Gaußschen Glockenkurve normalverteilt sind.
Im Endeffekt bildet man quasi das totale Differential der zusammengesetzten Größe und verwendet als unabhängige Differentiale die Unsicherheiten der Eingangswerte. Da sich diese statistischen Fehler im Normalfall bis zu einem gewissen Maß kompensieren, werden die entstehenden Abweichungen pythagoreisch addiert, also werden ihre Quadrate addiert und schließlich die Wurzel gezogen.
Die Formel lautet:
$$ u _ { X } = \sqrt { \left( \frac { \partial X } { \partial A } u _ { A } \right) ^ { 2 } + \left( \frac { \partial X } { \partial B } u _ { B } \right) ^ { 2 } + \left( \frac { \partial X } { \partial C } u _ { C } \right) ^ { 2 } + \left( \frac { \partial X } { \partial D } u _ { D } \right) ^ { 2 } } $$
wobei u_X die Unsicherheit der Größe X ist (die anderen Unsicherheiten natürlich entsprechend für die anderen Größen.)
Für dein Beispiel bedeutet das:
$$ u _ { x } = \sqrt { \left( \frac { u _ { A } } { C - D } \right) ^ { 2 } + \left( - \frac { u _ { B } } { C - D } \right) ^ { 2 } + \left( - \frac { A - B } { ( C - D ) ^ { 2 } } u _ { C } \right) ^ { 2 } + \left( \frac { A - B } { ( C - D ) ^ { 2 } } u _ { D } \right) ^ { 2 } } $$
2.) Etwas anders sieht die Sache aus, wenn die Unsicherheiten nicht zufällig um einen Mittelwert verteilt sind, sondern an grundsätzlichen Ungenauigkeiten des Versuchs liegen, zum Beispiel durch gewisse Nullpunktsverschiebungen der Messgeräte oder durch temperaturbedingte Abweichungen.
Da werden sich die Fehler nämlich nicht kompensieren und es ist durchaus denkbar, dass die extremsten Abweichungen vom Mittelwert tatsächlich vorliegen. Daher macht man dann eine Extremalabschätzung, indem man jeweils die maximalen und minimalen möglichen Werte ausrechnet und die entsprechenden Abweichungen vom Mittelwert als Unsicherheit nach oben bzw. unten verwendet.
Das sähe bei dir folgendermaßen aus:
$$ \begin{array} { l } { X _ { m a x } = \frac { \left( A + u _ { A } \right) - \left( B - u _ { B } \right) } { \left( C - u _ { C } \right) - \left( D + u _ { D } \right) } } \\ { X _ { \min } = \frac { \left( A - u _ { A } \right) - \left( B + u _ { B } \right) } { \left( C + u _ { C } \right) - \left( D - u _ { D } \right) } } \end{array} \\ u _ { X } ^ { + } = X _ { \max } - \overline { X } \\ u _ { X } ^ { - } = \overline { X } - X _ { \min } \\ X = \overline { X } \pm _ { u _ { \overline { x } } } ^ { u _ { x } ^ { + } } $$