Thursday, November 14, 2024
Home » EU AI Act: Τι καινούριο φέρνει για τις επιχειρήσεις, ο νέος ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη

EU AI Act: Τι καινούριο φέρνει για τις επιχειρήσεις, ο νέος ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη

0 comments

Η Ευρωπαϊκή Ένωση (ΕΕ) πραγματοποίησε ένα σημαντικό βήμα για την εποπτεία των συστημάτων τεχνητής νοημοσύνης (Artificial Intelligence – AI), με τη δημοσίευση του Κανονισμού (ΕΕ) 2024/1689 για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την AI (EU AI Act), στις 12 Ιουλίου 2024, η οποία τίθεται σε άμεση εφαρμογή σε όλα τα κράτη μέλη. Η ΕΕ πρωτοστατεί σε αυτό το θέμα, διατηρώντας μια νομοθετική ισορροπία μεταξύ, αφενός, της ελευθερίας για έρευνα, ανάπτυξη και χρήση συστημάτων AI από τις εταιρείες και τους οργανισμούς και, αφετέρου, της προάσπισης της ασφάλειας, των θεμελιωδών δικαιωμάτων, της δημοκρατίας και του περιβάλλοντος από τους κινδύνους της τεχνητής νοημοσύνης.

Με αφορμή τη δημοσίευση του Κανονισμού, το Τμήμα Συμβουλευτικών Υπηρεσιών της EYΕλλάδοςκαι, ειδικότερα, οι ομάδες Διαχείρισης και Ποσοτικοποίησης Κινδύνων, και Τεχνητής Νοημοσύνης / Ανάλυσης Δεδομένων του Κέντρου Αριστείας AI & Data της EY στην Ελλάδα, αναλύουν τα βασικά στοιχεία της EU AI Act και παραθέτουν προτάσεις για το πώς οι επιχειρήσεις θα ανταποκριθούν στις απαιτήσεις της.

Στόχος της Πράξης και ορισμός συστημάτωνAI

Η EE, μέσω της EU AI Act, έχει ως βασικό στόχο τον έλεγχο της ασφάλειας και της αξιοπιστίας των συστημάτων τεχνητής νοημοσύνης τα οποία λειτουργούν εντός της επικράτειάς της (ανεξάρτητα από τη χώρα ανάπτυξής τους), προστατεύοντας, παράλληλα, τα θεμελιώδη δικαιώματα των πολιτών της. Με την εφαρμογή της Πράξης, οι επιχειρήσεις θα πρέπει να εναρμονιστούν με μια σειρά από απαιτήσεις και πρότυπα, εξασφαλίζοντας ότι τα συστήματα AI τα οποία αναπτύσσουν ή λειτουργούν, είναι ασφαλή και δίκαια για τους χρήστες.

Σύμφωνα με την EU AI Act, ένα σύστημαAI ορίζεται ως ένα λογισμικό που αναπτύσσεται με ορισμένες τεχνικές και προσεγγίσεις και μπορεί, για ένα δεδομένο σύνολο καθορισμένων στόχων, με έναν – έστω και ελάχιστο – βαθμό αυτονομίας, να παράγει αποτελέσματα όπως προτάσεις, εκτιμήσεις, προβλέψεις, αποφάσεις ή άλλες ενέργειες που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλοεπιδρά.

Είναι σαφές ότι ο ορισμός των συστημάτων ΑΙ καλύπτει ένα ευρύ φάσμα τεχνικών και προσεγγίσεων στον χώρο της τεχνολογίας αυτής, όπως, η μηχανική μάθηση (machine learning), η βαθιά μάθηση (deep learning), η επεξεργασία φυσικής γλώσσας (natural language processing) και τα συστήματα AI γενικού σκοπού (general purpose ΑΙ systems).

Διαβάθμιση συστημάτωνAI με βάση τον κίνδυνο, και εποπτεία

Για την προώθηση της καινοτομίας, παράλληλα με την εμπιστοσύνηστα συστήματα ΑΙ, η ΕΕ διαβαθμίζει τα συστήματα αυτά σε επίπεδα κινδύνου με βάση τον δυνητικό αντίκτυπο στα δικαιώματα και τις ελευθερίες των ανθρώπων, εισάγοντας διαφορετικές απαιτήσεις για όλους τους εμπλεκόμενους φορείς, όπως όσοι αναπτύσσουν συστήματα ΑΙ και όσοι χρησιμοποιούν τέτοια συστήματα.

Διαφορετικές απαιτήσεις και χρονικά πλαίσια εναρμόνισης, ορίζονται για τις παρακάτω κατηγορίες συστημάτων:

  • Μη αποδεκτού κινδύνου συστήματαAI: Περιλαμβάνουν, για παράδειγμα, συστήματα τα οποία χρησιμοποιούνται για την αξιολόγηση ή την ταξινόμηση φυσικών προσώπων με βάση την κοινωνική συμπεριφορά ή την προσωπικότητά τους, ή συστήματα τα οποία εκμεταλλεύονται συγκεκριμένα χαρακτηριστικά ομάδων φυσικών προσώπων. H χρήση των συστημάτων αυτών είναι απαγορευμένη. Το χρονικό πλαίσιο απαγορεύσεων για τα συστήματα μη αποδεκτού κινδύνου έχει οριστεί στους 6 μήνες μετά την έναρξη ισχύος της Πράξης.
  • Υψηλού κινδύνου συστήματα ΑΙ: Για τα συστήματα αυτά προβλέπονται πολλαπλές απαιτήσεις πριν από την έναρξη χρήσης τους, και σε συνεχή βάση. Οι βασικές τους απαιτήσεις είναι οι ακόλουθες:
    • Εισαγωγή συστήματος διαχείρισης κινδύνων, το οποίο θα χρησιμοποιείται καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος
    • Διακυβέρνηση και έλεγχος ποιότητας δεδομένων για την εκπαίδευση, επικύρωση και λειτουργία του συστήματος
    • Αξιολόγηση ακρίβειας, επάρκειας και αξιοπιστίας των αποτελεσμάτων
    • Ύπαρξη διαφάνειας, πληροφόρησης, ασφάλειας και ακεραιότητας των χρηστών
    • Ανθρώπινη εποπτεία για τον έλεγχο λειτουργίας του συστήματος
    • Ολοκληρωμένη τεχνική τεκμηρίωση

Η αξιολόγηση των συστημάτων υψηλού κινδύνου αναμένεται 24-36 μήνες μετά την έναρξη ισχύος της Πράξης, ανάλογα με την κατηγορία του συστήματος.

  • Χαμηλού κινδύνου συστήματαAI: Περιλαμβάνουν συστήματα που προορίζονται για άμεση αλληλεπίδραση με φυσικά πρόσωπα και υπόκεινται κυρίως σε απαιτήσεις διαφάνειας. Οι απαιτήσεις για τα συστήματα χαμηλού κινδύνου, θα τεθούν σε εφαρμογή 24 μήνες μετά την έναρξη ισχύος της πράξης.
  • ΣυστήματαAI γενικού σκοπού:Αφορούν συστήματα τα οποία είναι ικανά να εκτελούν ένα ευρύ φάσμα εργασιών και δεν είναι περιορισμένα σε μία συγκεκριμένη λειτουργία ή εφαρμογή. Οι απαιτήσεις για τα συστήματα αυτά, διαφοροποιούνται με βάση τον συστημικό τους κίνδυνο, ενώ αναμένεται να τεθούν σε εφαρμογή 12 μήνες μετά την έναρξη ισχύος της Πράξης.

Η EU AI Act προβλέπει τη σύσταση ειδικών εποπτικών αρχών σε κάθε κράτος μέλος, οιEU AI Act οποίες θα έχουν την ευθύνη να ελέγχουν τη συμμόρφωση των επιχειρήσεων με τις απαιτήσεις της, καθώς και να επιβάλλουν τυχόν κυρώσεις σε περιπτώσεις αποκλίσεων. Ενδεικτικά, οι ποινές μη συμμόρφωσης ενός οργανισμού, σε περίπτωση που θέτει σε λειτουργία συστήματα AI μη αποδεκτού κινδύνου, δύνανται να φτάσουν μέχρι και το 7% του κύκλου εργασιών του.

digitallife.com.cy

You may also like

Add Comment

Our Page contains news reposts. We are not responsible for any inaccuracy in the content

Copyright © All rights reserved Faros On Air 

Designed and Developed with 🧡 by eAdvertise

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More