Αναρτήθηκε στις:22-10-20 11:54

H EE προωθεί κανόνες για την τεχνητή νοημοσύνη


Προτάσεις για το βέλτιστο νομοθετικό πλαίσιο που θα διέπει την τεχνητή νοημοσύνη (AI) ενέκρινε την Τρίτη το Ευρωπαϊκό Κοινοβούλιο, με στόχο να ενισχυθούν η καινοτομία αλλά και τα δεοντολογικά πρότυπα ώστε να οικοδομηθεί η εμπιστοσύνη στην τεχνολογία.

Το Ευρωπαϊκό Κοινοβούλιο, όπως αναφέρεται στην ανακοίνωσή του, συγκαταλέγεται μεταξύ των πρώτων θεσμικών οργάνων που διατυπώνουν συστάσεις για τους κανόνες που θα διέπουν την τεχνητή νοημοσύνη και θα περιλαμβάνουν θέματα δεοντολογίας, αστικής ευθύνης και δικαιωμάτων διανοητικής ιδιοκτησίας. Οι συστάσεις αυτές έχουν στόχο να προλειάνουν το έδαφος ώστε η ΕΕ να καταστεί παγκόσμιος ηγέτης στην ανάπτυξη της τεχνητής νοημοσύνης.

Δεοντολογικό πλαίσιο


Η νομοθετική πρωτοβουλία του Ιμπάν Γκαρσία ντελ Μπλάνκο (Σοσιαλιστές, Ισπανία) καλεί την Ευρωπαϊκή Επιτροπή -η οποία αναμένεται να δημοσιεύσει την πρότασή της στις αρχές του 2021- να παρουσιάσει ένα νομοθετικό πλαίσιο με δεοντολογικές αρχές και νομικές υποχρεώσεις που θα πρέπει να τηρούνται κατά την ανάπτυξη, την υλοποίηση και τη χρήση τεχνητής νοημοσύνης, ρομποτικής και συναφών τεχνολογιών στην ΕΕ, συμπεριλαμβανομένου του λογισμικού, των αλγορίθμων και των δεδομένων.

Η νομοθετική πρωτοβουλία εγκρίθηκε με 559 ψήφους υπέρ, 44 κατά και 88 αποχές.

Kατευθυντήρια αρχή ο ανθρωποκεντρικός χαρακτήρας


Οι κατευθυντήριες αρχές της μελλοντικής νομοθεσίας πρέπει να είναι: ο ανθρωποκεντρικός και ανθρωπογενής χαρακτήρας της τεχνητής νοημοσύνης, η ασφάλεια, η διαφάνεια και η λογοδοσία, οι δικλείδες ασφαλείας έναντι της μεροληψίας και των διακρίσεων, το δικαίωμα επανόρθωσης, η κοινωνική και η περιβαλλοντική ευθύνη, ο σεβασμός της ιδιωτικής ζωής και η προστασία των δεδομένων.

Ειδικότερα, ως προς τις τεχνολογίες τεχνητής νοημοσύνης «υψηλού κινδύνου», όπως για παράδειγμα αυτές που διαθέτουν ικανότητες αυτοδιδασκαλίας, αυτές πρέπει να σχεδιάζονται με τρόπο που να εξασφαλίζει τη δυνατότητα παρέμβασης από τον άνθρωπο ανά πάσα στιγμή. Σε περίπτωση που χρησιμοποιείται κάποια λειτουργία που θα μπορούσε να οδηγήσει σε σοβαρή παραβίαση των δεοντολογικών αρχών και να προκαλέσει κινδύνους, οι ικανότητες αυτοδιδασκαλίας θα πρέπει να απενεργοποιούνται και να αποκαθίσταται ο πλήρης έλεγχος από τον άνθρωπο.

Ευθύνη για την πρόκληση ζημίας


Μάλιστα, προβλέπεται ότι οι διαχειριστές συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου θα καθίστανται υπεύθυνοι για κάθε ζημία που προκαλείται, σύμφωνα με τη νομοθετική πρωτοβουλία του Αξελ Βος (ΕΛΚ, Γερμανία) η οποία ζητεί τη θέσπιση ενός πλαισίου αστικής ευθύνης.

Οι κανόνες πρέπει να καλύπτουν κάθε φυσική ή ψηφιακή δραστηριότητα τεχνητής νοημοσύνης που προκαλεί ζημία ή βλάβη στη ζωή, την υγεία, τη σωματική ακεραιότητα ή την περιουσία, ή προκαλεί σημαντική ηθική βλάβη που οδηγεί σε «επαληθεύσιμη οικονομική ζημία».

Οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου δεν είναι ακόμη διαδεδομένες, ωστόσο οι ευρωβουλευτές υποστηρίζουν ότι οι χειριστές σχετικών συστημάτων πρέπει να διαθέτουν ασφάλιση ανάλογη με εκείνη που προβλέπεται για τα μηχανοκίνητα οχήματα.

Η νομοθετική πρωτοβουλία εγκρίθηκε με 626 ψήφους υπέρ, 25 ψήφους κατά και 40 αποχές.

Δικαιώματα διανοητικής ιδιοκτησίας


Προκειμένου η ΕΕ να αναλάβει ηγετικό ρόλο στο πεδίο της τεχνητής νοημοσύνης, η έκθεση του Στεφάν Σεζουρνέ (Renew Europe, Γαλλία) καθιστά σαφές ότι απαιτείται ένα αποτελεσματικό σύστημα για τα δικαιώματα διανοητικής ιδιοκτησίας, καθώς και δικλείδες ασφαλείας για την προστασία καινοτόμων προγραμματιστών μέσω του συστήματος διπλωμάτων ευρεσιτεχνίας της ΕΕ. Ωστόσο, οι απαιτήσεις αυτές δεν πρέπει να αποβούν εις βάρος των συμφερόντων των ανθρώπων-δημιουργών, ούτε και των δεοντολογικών αρχών της ΕΕ.

Οι ευρωβουλευτές υποστηρίζουν ότι είναι σημαντικό να γίνει διάκριση μεταξύ των ανθρώπινων δημιουργιών που υποβοηθούνται από την τεχνητή νοημοσύνη και των δημιουργιών που παράγονται αυτόνομα από την τεχνητή νοημοσύνη. Διευκρινίζουν ότι τα συστήματα τεχνητής νοημοσύνης δεν θα πρέπει να έχουν νομική προσωπικότητα, συνεπώς τα δικαιώματα διανοητικής ιδιοκτησίας θα ανήκουν αποκλειστικά σε ανθρώπους. Το κείμενο εξετάζει περαιτέρω θέματα πνευματικής ιδιοκτησίας, συλλογής δεδομένων, εμπορικού απορρήτου, χρήσης αλγορίθμων και παραποιημένων εικόνων και βίντεο (Deepfakes).

ΑΠΕ-ΜΠΕ



img

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

    img