Das Konzept der künstlichen Intelligenz kann definiert werden als Maschinen, die nachahmen können, was Menschen tun können, wobei die dem Menschen innewohnende Problemlösungsfähigkeit auch von Maschinen realisiert werden kann.
Heutzutage gewinnt das Konzept der künstlichen Intelligenz mit dem technologischen Fortschritt in vielen Bereichen allmählich einen Platz im menschlichen Leben. So sehr, dass künstliche Intelligenz in Form von fahrerlosen Autos, Computersuchmaschinen, Smartphones, Roboterstaubsaugern usw. in unserem Leben auftauchen kann., sowie künstliche Intelligenz namens AL, ChatGPT.
An dieser Stelle ist die Notwendigkeit in den Vordergrund getreten, den rechtlichen Status der künstlichen Intelligenz und ihre rechtliche Verantwortung im Zusammenhang mit diesem Status zu bestimmen. Bei der Prüfung der Diskussionen in diesem Zusammenhang gibt es Meinungen, dass i) künstliche Intelligenz als Ware / Produkt bestehen bleiben sollte, ii) künstliche Intelligenz eine Rechtspersönlichkeit erhalten sollte oder iii) künstliche Intelligenz als nichtmenschliche Person, elektronische Person, künstlicher Mensch akzeptiert werden sollte.
Im europäischen Recht wird als vorherrschende Sicht akzeptiert, dass künstliche Intelligenz ein „Produkt“ ist, das Endnutzern und Herstellern angeboten wird, und dass der durch dieses Produkt verursachte Schaden im Rahmen der Herstellerhaftung bewertet werden sollte. Die Richtlinie 85/374 des Europäischen Rates über die Haftung des Herstellers ist ein Beispiel für diese Ansicht.
Im türkischen Recht definiert das am 12.März 2021 in Kraft getretene Gesetz über Produktsicherheit und technische Vorschriften Nr. 7223 immaterielle Güter und damit Systeme der künstlichen Intelligenz als „Produkte“. Aufgrund der Parallelität zwischen der Europäischen Richtlinie und dem UGTDK besteht zwar die vorherrschende Meinung, dass der Hersteller für die durch künstliche Intelligenz verursachten Schäden haftbar gemacht werden kann, es gibt jedoch vorerst keine spezifische Haftungsregelung.
Darüber hinaus veröffentlichte ein Bericht des Europäischen Parlaments eine Reihe von Vorschlägen und Empfehlungen zur Verleihung von Persönlichkeit an AIs. Der Bericht ist das erste offizielle Dokument, das den Status der Persönlichkeit für eine KI-Einheit vorschlägt, und es wurde auch das Konzept der „elektronischen Persönlichkeit“ eingeführt.
Da es bei der Bewertung von künstlicher Intelligenz im Hinblick auf die strafrechtliche Verantwortlichkeit nicht in Frage kommt, künstliche Intelligenz oder eine damit verbundene Maschine zu bestrafen, wäre eine Bestrafung des Herstellers, Programmierers, Eigentümers oder Nutzers für sein Handeln nicht mit dem Grundsatz der „individuellen strafrechtlichen Verantwortlichkeit“ vereinbar.
Aus diesem Grund sollte zunächst die Definition der Verbrechen und Strafen, die künstliche Intelligenz begehen kann, klar in das Gesetz aufgenommen werden, und dementsprechend sollte der Hersteller, Programmierer, Eigentümer oder Benutzer von Algorithmen, die Menschen vorsätzlich oder fahrlässig Schaden zufügen können, als Grundlage für die Bestrafung herangezogen werden. In diesem Zusammenhang ist es wichtig, Transparenz bei den Datenquellen zu gewährleisten. Eine klare Dokumentation, woher die Daten stammen, wie sie erhoben werden und welche Vorverarbeitung sie durchlaufen, erleichtert es, mögliche Vorurteile zu erkennen und abzubauen.
Infolgedessen setzt das Fehlen einer parallelen Regelung im Rahmen der nationalen und internationalen Gesetzgebung die Debatte über die Rechtsnatur und Verantwortung der künstlichen Intelligenz fort. Infolge der unvorhersehbaren Verbreitung und Entwicklung von künstlicher Intelligenz ist es offensichtlich, dass der Bedarf an gesetzlichen Bestimmungen gestiegen ist.