Das ist höflich ausgedrückt eine katastrophal schlechte Idee.
Ich weiß nicht, was Leute in diesem Forum immer mit ChatGPT haben, aber es ist explizit nicht dazu da, korrekte Informationen zu liefern oder überhaupt mathematisch kohärente Aussagen zu liefern. ChatGPT soll natürliche Sprache liefern. Der Output ist ein Text, der bezüglich Satzstruktur, Vokabular, Satzlänge, verwendeter Analogien oder Randthemen sowie Beispielen möglichst natürlich AUSSEHEN soll. Nirgendwo in der gesamten Architektur des Sprachmodells ist eine Stelle, die Sätze explizit auf fachliche Korrektheit prüft oder das überhaupt versucht. Teilweise denkt sich ChatGPT auch einfach Quellen aus, deren Titel natürlich klingen.
Nichts davon ist wissenschaftlich verwertbar und häufig ist das wissenschaftliche Schreiben mit ChatGPT verschwendete Zeit. Es ist im besten Fall ein kategorischer Fehler, im schlimmsten Fall wissenschaftlich unehrlich, ein Sprachmodell, das nicht für wissenschaftliche Einsicht geschaffen wurde, nach wissenschaftlicher Einsicht zu befragen und die Antworten ernst zu nehmen.
Ab einem bestimmten wissenschaftlichen Anspruchslevel ist die Wissensgrenze von ChatGPT erreicht. Ab diesem Punkt wird nur noch Müll ausgespuckt, der sich auf den ersten Blick toll anhört, auf den zweiten Blick keinen Inhalt hat. Wer ChatGPT auf Widersprüche hinweist, bekommt eine Entschuldigung und danach nur noch mehr Müll.
Wenn du wirklich Hilfe möchtest, und zu deiner Frage keine gute Quelle findest: Frag den Betreuer deiner Arbeit. Der hat ja wohl Erwartungen, was in diese Arbeit reinkommt. Wenn du erzählst, dass du Probleme hast, zu einem Thema gute Quellen zu finden, wird dir sehr gerne geholfen.
Zur Belustigung: https://chatgpt.com/share/057e06d6-1557-4398-a4a9-749628b80285