Deepfakes, Bias & Απαγορεύσεις: Η Ευρώπη Επιβάλλει Τάξη με τον Νόμο για την ΤΝ (AI Act)
Deepfakes, Bias & Απαγορεύσεις: Η Ευρώπη Επιβάλλει Τάξη με τον Νόμο για την ΤΝ (AI Act)
10/22/2025


My post content
Ο AI Act (Κανονισμός (ΕΕ) 2024/1689) δεν δημιουργήθηκε για να προλάβει, αλλά για να αντιμετωπίσει τους κινδύνους που έχουν ήδη διαπιστωθεί από τη χρήση της Τεχνητής Νοημοσύνης. Τόσο στην αιτιολογική έκθεση του σχετικού νομοθετικού κειμένου, όσο και στα συνοδευτικά έγγραφα, συγκεκριμένα ζητήματα είναι φανερό ότι απασχόλησαν τα αρμόδια όργανα. Χαρακτηριστικά παραδείγματα αποτελούν τα ακόλουθα:
Α. Όταν η ΤΝ κάνει "Διακρίσεις": Social Scoring, Bias και η Απώλεια Επίβλεψης
• Διακρίσεις και Προκατάληψη (Bias): Συστήματα ΤΝ (ιδίως σε προσλήψεις, χορήγηση δανείων ή απονομή δικαιοσύνης) εν τοις πράγμασι δύνανται να «εκπαιδεύονται» με προκατειλημμένα δεδομένα, με αποτέλεσμα να διαιωνίζουν και να διευρύνουν τις διακρίσεις έναντι ορισμένων κοινωνικών ομάδων. Ο Κανονισμός απαιτεί αυστηρά πρότυπα ποιότητας δεδομένων (rigorous data governance) για τα συστήματα υψηλού κινδύνου.
• Κοινωνική Βαθμολόγηση (Social Scoring): Η χρήση ΤΝ από δημόσιες αρχές για την αξιολόγηση ατόμων βάσει της κοινωνικής τους συμπεριφοράς, μπορεί δυνητικά να οδηγήσει σε περιορισμό δικαιωμάτων ή ευκαιριών. Αυτή η πρακτική απαγορεύεται ρητά (Unacceptable Risk).
• Απώλεια Ανθρώπινης Επίβλεψης (Human Oversight): Η υπερβολική εξάρτηση από την ΤΝ σε κρίσιμους τομείς δύναται να περιορίσει ιδιαιτέρως τον έλεγχο, την λογοδοσία και τη δυνατότητα ανθρώπινης παρέμβασης σε περίπτωση σφάλματος.
Β. Από τα Deepfakes στα Αλγοριθμικά "Σφάλματα": Γιατί Χρειαζόμαστε Ασφάλεια Δικαίου;
• Deepfakes και Χειραγώγηση: Η ΤΝ μπορεί να δημιουργήσει εξαιρετικά ρεαλιστικό πλαστό περιεχόμενο (Deepfakes) που χρησιμοποιείται για χειραγώγηση ή παραπληροφόρηση. Ο Κανονισμός επιβάλλει υποχρέωση διαφάνειας και σήμανσης (labelling) για τέτοιο περιεχόμενο, χωρίς ωστόσο να θεωρεί ιδιαιτέρως επικίνδυνο το εν λόγω περιεχόμενο.
• Ανασφάλεια & Τεχνικά Σφάλματα: Η πολυπλοκότητα των αλγορίθμων καθιστά δύσκολο τον εντοπισμό και τη διόρθωση σφαλμάτων, οδηγώντας σε απρόβλεπτα αποτελέσματα (π.χ., σε συστήματα κρίσιμων υποδομών). Για τα συστήματα Υψηλού Κινδύνου (High Risk), απαιτείται σύστημα διαχείρισης κινδύνου καθ' όλη τη διάρκεια του κύκλου ζωής τους.
• Έλλειψη Ασφάλειας Δικαίου: Πριν τον AI Act, υπήρχε κατακερματισμός του νομικού πλαισίου στην ΕΕ. Οι εταιρείες δεν γνώριζαν τους κοινούς κανόνες για την ανάπτυξη και διάθεση προϊόντων ΤΝ, κάτι που εμπόδιζε την καινοτομία.
Γ. Τα Μεγάλα "GPAI" Μοντέλα (ChatGPT, Gemini, GPT-4, Grok): Πνευματική Ιδιοκτησία, Συστημικός Κίνδυνος & ο Λογαριασμός
• Συστημικός Κίνδυνος (Systemic Risk): Τα πολύ μεγάλα μοντέλα ΤΝ Γενικού Σκοπού (General-Purpose AI - GPAI), όπως τα Large Language Models, μπορούν να δημιουργήσουν συστημικό κίνδυνο στην αγορά ή να χρησιμοποιηθούν για κακόβουλους σκοπούς. Ο Κανονισμός επιβάλλει πρόσθετες υποχρεώσεις διαχείρισης κινδύνου στους παρόχους αυτών των ισχυρών μοντέλων.
• Πνευματική Ιδιοκτησία (Intellectual Property - IP): Η χρήση τεράστιου όγκου δεδομένων, συμπεριλαμβανομένου περιεχομένου με πνευματικά δικαιώματα, για την εκπαίδευση μοντέλων ΤΝ. Ο Κανονισμός απαιτεί λεπτομερείς περιλήψεις των δεδομένων εκπαίδευσης και συμμόρφωση με το υφιστάμενο δίκαιο πνευματικής ιδιοκτησίας.
