Aloha :)
Wir bestimmen die \(k\)-te Komponente des Gradienten:
$$D_kf(\vec x)=\operatorname{grad}_k\left((B\vec x)\cdot\vec x\right)=\frac{\partial}{\partial x_k}\left(\sum\limits_{i=1}^n(B\vec x)_i\,x_i\right)=\frac{\partial}{\partial x_k}\left(\sum\limits_{i=1}^n\left(\sum\limits_{j=1}^nB_{ij}x_j\right)x_i\right)$$$$\phantom{D_kf(\vec x)}=\frac{\partial}{\partial x_k}\left(\sum\limits_{i=1}^n\sum\limits_{j=1}^nB_{ij}x_ix_j\right)=\sum\limits_{i=1}^n\sum\limits_{j=1}^nB_{ij}\,\frac{\partial}{\partial x_k}\left(x_ix_j\right)$$
Die partielle Ableitung liefert bei der Summation nur dann einen Beitrag, wenn eine der beiden Laufvariablen \(i\) oder \(j\) den Wert \(k\) trifft:
$$\frac{\partial}{\partial x_k}\left(x_ix_j\right)=\frac{\partial x_i}{\partial x_k}\,x_j+x_i\,\frac{\partial x_j}{\partial x_k}=\delta_{ik}\,x_j+x_i\,\delta_{jk}\quad\text{mit}\;\delta_{ik}=\left\{\begin{array}{c}1 & \text{falls }i=k\\0 & \text{falls }i\ne k\end{array}\right.$$
Die Überlegung führt zu unserem nächsten Schritt:$$\phantom{D_kf(\vec x)}=\underbrace{\sum\limits_{j=1}^nB_{kj}x_j}_{i=k}+\underbrace{\sum\limits_{i=1}^nB_{ik}x_i}_{j=k}=\sum\limits_{j=1}^nB_{kj}\,x_j+\sum\limits_{i=1}^nB^T_{ki}\,x_i$$$$\phantom{D_kf(\vec x)}=\sum\limits_{i=1}^nB_{ki}\,x_i+\sum\limits_{i=1}^nB^T_{ki}\,x_i=\sum\limits_{i=1}^n\left(B_{ki}+B^T_{ki}\right)x_i$$$$\phantom{D_kf(\vec x)}=\sum\limits_{i=1}^n(B+B^T)_{ki}\,x_i=((B+B^T)\,\vec x)_k$$
Fassen wir alle Komponenten des Gradienten zusammen, erhalten wir:$$Df(\vec x)=(B+B^T)\,\vec x$$