1 .R1 \" Citation commands start
2 database bibliography.ref # Path to bibliography file
3 accumulate # Collates References at end of documentation
4 move-punctuation # Ensures that citation appears before full-stop.
5 label "(A.n|Q) ', ' (D.+yD.y%a*D.-y)" # Actual format of citation (e.g. (Author, Date)
6 bracket-label " (" ) "; " # Bracket style
7 no-label-in-reference # Does not display full citation (e.g. Author, Date) within References
8 .R2 \" Citation commands end
10 .ds REFERENCES Βιβλιογραφία
16 Τεχνητή νοημοσύνη: μύθοι και πραγματικότητα
31 Αγόρι: Μην προσπαθείς να λυγίσεις το κουτάλι. Αυτό είναι αδύνατο. Αντίθετα ... προσπάθησε μόνο να κατανοήσεις την αλήθεια.
35 Αγόρι: Ότι δεν υπάρχει κουτάλι. Τότε θα καταλάβεις ότι δεν είναι το κουτάλι που λυγίζει, αλλά εσύ.
38 Απόσπασμα από την ταινία "The Matrix" (1999)
44 Τα ΜΜΕ καθημερινά αναγγέλλουν την έλευση μιας νέας εποχής για την ανθρωπότητα. Η «τεχνητή νοημοσύνη» («AI») ήρθε για να αλλάξει τα πάντα. Η ακαδημαϊκή κοινότητα (σε μεγάλο μέρος) το αποδέχτηκε, οι επιχειρήσεις το χρηματοδότησαν και το κράτος το νομοθέτησε. Είναι όμως τα πράγματα τόσο απλά; Για αρχή ας ξεκαθαρίσουμε τις έννοιες.
48 Για να εξετάσουμε την νοημοσύνη των μηχανών πρέπει πρώτα να αναζητήσουμε πως εμείς την κατανοούμε σαν έννοια. Για παράδειγμα, η εγκυκλοπαίδεια "Britannica" δίνει των ακόλουθο ορισμό\** για την ανθρώπινη νοημοσύνη:
50 Sternberg, Robert J.. "human intelligence". Encyclopedia Britannica, https://web.archive.org/web/20240528050757/https://www.britannica.com/science/human-intelligence-psychology.
53 Νοητική ποιότητα που αποτελείται από την ικανότητα να μαθαίνει κανείς από την εμπειρία, να προσαρμόζεται σε νέες καταστάσεις, να κατανοεί και να χειρίζεται αφηρημένες έννοιες και να χρησιμοποιεί τη γνώση για να χειραγωγεί το περιβάλλον του.
56 Αυτός ο ορισμός είναι και αρκετά αφηρημένος. Δε θα μπορούσε όμως να είναι διαφορετικά. Η νοημοσύνη είναι μια εξαιρετικά πλατιά έννοια και, σε φιλοσοφικό επίπεδο, υπάρχει πληθώρα προσεγγίσεων για τον ορισμό της.
59 .B "θεωρία της πολλαπλής νοημοσύνης".
60 Σύμφωνα με αυτή, η νοημοσύνη πρέπει να εξετάζεται σε διαφορετικά διακριτά επίπεδα, αντί ενός γενικού. Κατά τον Gardner, προτείνονται τα ακόλουθα 8 είδη
67 .B "Μουσική νοημοσύνη"
69 Αφορά την ικανότητα στην αντίληψη των ήχων, των τόνων και του ρυθμού της μουσικής.
72 .B "Χωροταξική νοημοσύνη"
74 Σχετίζεται με την ικανότητα του μυαλού να αντιλαμβάνεται τον χώρο.
77 .B "Γλωσσική νοημοσύνη"
79 Αφορά την ικανότητα αναπαραγωγής γραπτού και προφορικού λόγου.
82 .B "Λογικομαθηματική νοημοσύνη"
84 Σχετίζεται με αριθμούς, με τη λογική, την αφαιρετική ικανότητα και την ικανότητα επαγωγικής και απαγωγικής λογικής
87 .B "Κιναισθητική νοημοσύνη"
89 Καθορίζει την αδρή και λεπτή κινητικότητα και την ικανότητα του σώματος να κινείται με συντονισμό.
92 .B "Διαπροσωπική νοημοσύνη"
94 Η ικανότητα των ανθρώπων στην κατανόηση άλλων. Στο να δείχνουν ενσυναίσθηση και να ανταλλάσουν απόψεις.
97 .B "Ενδοπροσωπική νοημοσύνη"
99 Η κατανόηση του εσωτερικού μας κόσμου.
102 .B "Νατουραλιστική νοημοσύνη"
104 Η σχέση μας με το φυσικό κόσμο.
106 Τα παραπάνω απικονίζονται σχηματικά και στην εικόνα 1.
107 .PSPIC "media/Multiple-intelligence.eps" 4
110 Εικόνα 1: Θεωρία της πολλαπλής νοημοσύνης\**.
112 Από Sajaganesandip, https://wikiless.org/wiki/File:Multiple-intelligence.jpg, Άδεια: CC BY-SA 4.0
120 Στο προηγούμενο κεφάλαιο καταλήξαμε στο ότι η ευφυΐα είναι ένα σύνθετο ζήτημα με πολλαπλές ερμηνείες για να χωρέσει σε έναν απλό ορισμό. Μια ολιστική προσέγγιση, όπως αυτή του Gardner, δίνει μια συγκεκριμένη κατεύθυνση για την κατανόηση της πολυεπίπεδης πολυπλοκότητας της ανθρώπινης υπόστασης. Αυτή η πολυπλοκότητα είναι αποτέλεσμα εκατοντάδων χιλιάδων χρόνων εξέλιξης ενός μονοκύτταρου οργανισμού σε αυτό που πλέον είναι ο σύγχρονος άνθρωπος. Η τεχνητή νοημοσύνη, από την άλλη έχει μόλις λίγα χρόνια ζωής.
122 Ιστορία (σύντομη) της τεχνητής νοημοσύνης
124 Από τα μέσα της προηγούμενης δεκαετίας, από τότε δηλαδή που εμφανίστηκαν οι πρώτοι ηλεκτρονικοί υπολογιστές, εμφανίστηκαν ερευνήτριες που ασχολούνταν με τον τομέα της τεχνητής νοημοσύνης. Τα πιο σημαντικά ιστορικά στάδια του προηγούμενου αιώνα είναι\**:
126 https://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/
129 .B "[1927-1946] Η Χρυσή εποχή της επιστημονικής φαντασίας":
130 Είναι η εποχή που ταινίες όπως η "Metropolis" (1927) και «ο Μάγος του OZ» (1936) εμφάνιζαν ανθρωποειδείς μηχανές με συναισθήματα. Είναι οι ταινείες που ενέπνευσαν τους πρώτους επιστήμονες που ασχολήθηκαν με την τεχνητή νοημοσύνη.
132 .B "[1949] Machester Mark 1, κατασκευάζεται ο πρώτος υπολογιστής με δυνατότητα αποθήκευσης πληροφοριών":
133 Έως τότε οι υπολογιστές μπορούσαν μόνο να εκτελέσουν εντολές αλλά όχι να αποθηκεύσουν δεδομένα.
135 .B "[1950] «Μπορούν οι μηχανές να σκέφτονται;» από τον Άλαν Τούρινγκ":
136 Στην μελέτη του ο Τούρινγκ εξετάζει την κατασκευή ευφυών μηχανών και για πρώτη φορά εμφανίζεται το «τεστ Τούρινγκ». Σύμφωνα με αυτό αν δεν μπορεί να γίνει αντιληπτό σε έναν άνθρωπο ότι μία συζήτησή του με μια μηχανή (μέσω τηλέγραφου) δεν είναι με πραγματικό άνθρωπο, τότε η μηχανή «σκέφτεται».
138 .B "[1955] Κατασκευάζεται το πρώτο πρόγραμμα τεχνητής νοημοσύνης, «Logic Theorists»:
139 Για πολλές το πρώτο πρόγραμμα τεχνητής νοημοσύνης. Πραγματοποιούσε επίλυση μαθηματικών προβλημάτων με σχετική επιτυχία.
141 .B "[1956] Το καλοκαιρινό ερευνητικό πρόγραμμα Dartmouth":
142 Διάφοροι επιστήμονες συναντήθηκαν για να συζητήσουν για την τεχνητή νοημοσύνη. Εκτός από την καθιέρωση του ονόματος, θεωρείται ότι εκεί γεννήθηκε η τεχνητή νοημοσύνη από τον ιδρυτή του συνεδρίου τον Μαρβιν Μισκι.
144 .B "[1963] Η DARPA χρηματοδοτεί το MIT":
145 Οι επιτυχίες στον τομέα της τεχνητής νοημοσύνης, οδηγούν στη χρηματοδότηση πολλών ινστιτούτων από κρατικές υπηρεσίες των ΗΠΑ για έρευνα. Ένα παράδειγμα είναι η Defense Advanced Research Projects Agency.
147 .B "[1965] Ο νόμος του Μουρ":
148 Πρόκειται για μια ιστορική εμπειρική παρατήρηση, ότι ο αριθμός των τρανζίστορ ενός ολοκληρωμένου κυκλώματος διπλασιάζεται κάθε δύο χρόνια. Αυτή η πρόβλεψη περιγράφει την τάση στην κατασκευή επεξεργαστών ηλεκτρονικών υπολογιστών να αυξάνουν σε ισχύ και να μειώνονται σε μέγεθος. Γενικά, έως σήμερα, έχει επιβεβαιωθεί με μικρές σχετικά αποκλίσεις.
150 .B "[1968 - 1970] Εποχή της ευφορίας:
151 Καθώς η ευφορία μεγάλωνε (μαζί με την χρηματοδότηση), υπήρχε μεγάλη (τελικά ανεδαφική) αισιοδοξία. Μερικές από τις δηλώσεις τις εποχής ήταν:
153 «Έως το 2001 θα έχουμε μηχανές με νοημοσύνη η οποία θα ξεπερνάει αυτή των ανθρώπων»\**
155 Άρθουρ Κλαρκ και Στιβ Κουμπρικ
158 «Σε 3 με 8 χρόνια θα έχουμε μηχανή με γενική εφυία όση ενός ανθρώπου»\**
160 Δήλωση του Mαρβιν Μισκι στο περιδικό Time
164 .B "[1980] Ο Εντουαρντ Φειγκενμπαουν παρουσιάζει τα «έμπειρα συστήματα»:
165 Το πρόγραμμα ρωτούσε έναν εμπειρογνώμονα σε έναν τομέα πώς να ανταποκριθεί σε μια δεδομένη κατάσταση και, μόλις αυτό γινόταν πρακτικά για κάθε περίπτωση, οι μη ειδικοί θα μπορούσαν να λάβουν συμβουλές από αυτό. Τα έμπειρα συστήματα χρησιμοποιήθηκαν ευρέως στις βιομηχανίες.
167 .B "[1980] Το «πρόγραμμα 5ης γενιάς υπολογιστικών συστημάτων» από την Ιαπωνία:
168 Η Ιαπωνία έως το 1990 διέθεσε 400 εκατομμύρια δολάρια στην έρευνα σχετικά με την τεχνητή νοημοσύνη. Οι περισσότεροι στόχοι του προγράμματος απέτυχαν και η χρηματοδότηση σταμάτησε.
170 .B "[1986] Κατασκευάζεται το Navlab, το πρώτο αυτόνομο όχημα
172 .B "[1997] Ο υπερυπολογιστής «Deep Blue», νικάει τον Κασπάροφ στο σκάκι:
173 Αποτέλεσε πρώτη είδηση σε όλα τα δελτία ειδήσεων της εποχής. Ο υπολογιστής ανέλυε όλες τις πιθανές κινήσεις (brute force) του αντιπάλου για να επιλέξει την επόμενή του κίνηση.
175 .B "[1997] Το πρώτο ευρείας κυκλοφορίας πρόγραμμα μετατροπής γλώσσας σε φωνή από την Dragon Systems."
178 Ορισμοί Τεχνητής Νοημοσύνης
180 Ο στόχος λοιπόν, για όσες ασχολήθηκαν με την τεχνητή νοημοσύνη, από τη σύλληψη της ως έννοια, ήταν:
184 Τεχνητή Νοημοσύνη ≥ Ανθρώπινη Νοημοσύνη
188 Αυτό το θεωρητικό μοντέλο τεχνητής νοημοσύνης, που απαιτεί μια μηχανή να έχει νοημοσύνη ίση ή μεγαλύτερη από τον άνθρωπο, αν υπήρχε, θα είχε συνειδητή αυτογνωσία, την ικανότητα να λύνει προβλήματα και να μαθαίνει και να σχεδιάζει το μέλλον. Αυτή ονομάζεται ισχυρή ή γενική τεχνητή νοημοσύνη.
189 Παρά τις, με βεβαιότητα, δηλώσεις επιστημόνων (μόλις 50 χρόνια πριν) ότι απέχουμε από λίγα χρόνια έως λίγες δεκαετίες από αυτόν τον στόχο, τελικά ως σήμερα δεν έχει επιτευχθεί\**.
191 https://web.archive.org/web/20240508212358/https://www.brookings.edu/articles/how-close-are-we-to-ai-that-surpasses-human-intelligence/
193 Ειδικές περιπτώσεις, όπως αυτές της ήττας του Κασπάροφ στο σκάκι αποδίδονται όχι στην αυξημένη νοημοσύνη των υπολογιστών, αλλά στην μεγαλύτερη επεξεργαστική τους δυνατότητα να εκτελούν πράξεις, σε σχέση με εμάς. Δεν μπορούμε να ισχυριστούμε, για παράδειγμα, ότι ένα απλό αριθμητικό κομπιουτεράκι μας ξεπερνά σε νοημοσύνη. Όταν μια μηχανή μπορεί να κάνει περιορισμένες ενέργειες που προσομοιάζουνε τμήματα της ανθρώπινης νοημοσύνης, τότε ονομάζεται αδύναμη ή στενή τεχνητή νοημοσύνη.
195 Σήμερα η ορολογία έχει αλλάξει, χωρίς, όμως, να υπάρχει ένας αμοιβαία συμφωνημένος ορισμός. Για παράδειγμα, η εταιρεία OPENAI η οποία έχει μονοπωλήσει τα φώτα της δημοσιότητας με το πρόγραμμα chatGPT (στο οποίο θα αναφερθούμε σε επόμενη παράγραφο), ορίζει την γενικευμένη τεχνητή νοημοσύνη ως\**:
197 https://web.archive.org/web/20240508231921/https://openai.com/charter/
200 «...εξαιρετικά αυτόνομα συστήματα που ξεπερνούν τους ανθρώπους στην πιο οικονομικά επικερδή εργασία»
203 Πρόκειται για μια εξαιρετικά αφηρημένη και βολική ερμηνεία. Είναι όμως ταυτόχρονα ξεκάθαρη για τον βασικό στόχο της εταιρείας σε σχέση με την τεχνητή νοημοσύνη. Η ανάπτυξή της σε δραστηριότητες που αποσκοπούν σε κερδοφορία.
205 Σε τελείως διαφορετική κατεύθυνση σε μία μελέτη του ο Yoshihiro Maruyama, από το Εθνικό Πανεπιστήμιο της Αυστραλίας, ορίζει τα παρακάτω 8 χαρακτηριστικά ενός συστήματος ως απαραίτητα για να θεωρηθεί γενικευμένη τεχνητή νοημοσύνη:
207 maruyama2020AI_conditions
234 Παρατηρούμε ότι η παραπάνω κατηγοριοποίηση, προσεγγίζει σημαντικά τον χαρακτηρισμό της ανάλυσης για την ανθρώπινη ευφυΐα του Gardner.
239 Τεχνικές τεχνητής νοημοσύνης
241 Οι έννοιες τεχνητή νοημοσύνη, μηχανική μάθηση (machine learning), βαθιά μάθηση (deep learning) και νευρωνικά δίκτυα (neural networks) ακούγονται και συγχέονται συχνά. Παρακάτω γίνεται προσπάθεια να ξεδιαλύνουμε αυτές τις ορολογίες.
245 Η βαθιά μάθηση είναι υποσύνολο της μηχανικής μάθησης η οποία με τη σειρά της είναι και αυτή υποσύνολο της τεχνητής νοημοσύνης (εικόνα 2).
247 .PSPIC "media/AI_hierarchy.eps" 3
250 Εικόνα 2: Ιεραρχία τεχνητής νοημοσύνης\**.
252 Παράγωγο από Lollixzc, https://wikiless.org/wiki/File:Multiple-intelligence.jpg, διατίθεται με όμοια άδεια: CC BY-SA 4.0
256 Η μηχανική μάθηση, είναι μία μέθοδος εκπαίδευσης των μηχανών από τα δεδομένα ή την εμπειρία η οποία αυτοματοποιεί τη δημιουργία αναλυτικών μοντέλων.Ενώ η μηχανική μάθηση έχει μερικά εξελιγμένα μαθηματικά «κόλπα στο μανίκι της», είναι σημαντικό να κατανοήσουμε ότι είναι μια μαθηματική διαδικασία ωμής βίας. Όταν παρέχονται αρκετά δεδομένα εκπαίδευσης και όταν εκτελούνται σε αρκετά ισχυρούς υπολογιστές, μπορεί να αξιοποιήσει τις αριθμητικές λειτουργίες σε μια ασυνήθιστη εξομοίωση διαφόρων ανθρώπινων ικανοτήτων, όπως η ικανότητα αναγνώρισης προσώπων ή η αναπαραγωγή επιτραπέζιων παιχνιδιών στρατηγικής όπως το Go\**.
258 Στρατηγικό επιτραπέζιο παιχνίδι που ξεκίνησε από την Κίνα. Οι δυο παίχτριες, άσπρη και μαύρη, προσθέτουν εναλλάξ πέτρες στο ταμπλό, περικυκλώνοντας περιοχή, φυλακίζοντας πέτρες της αντιπάλου και προστατεύοντας τις δικές τους πέτρες.
263 Η «βαθειά μάθηση» αναφέρεται σε προσεγγίσεις μάθησης που βασίζονται σε δεδομένα που χρησιμοποιούν πολυεπίπεδα νευρωνικά δίκτυα και επεξεργασία για υπολογισμό. Ο όρος «βαθειά» αναφέρεται στην έννοια πολλών επιπέδων ή σταδίων μέσω των οποίων τα δεδομένα υποβάλλονται σε επεξεργασία για την ανάπτυξη ενός μοντέλου που βασίζεται σε δεδομένα.
270 Η μηχανική μάθηση ενσωματώνει την ιδέα ότι ο τρόπος επίλυσης ενός προβλήματος είναι να βρεθεί ένας στόχος για βελτιστοποίηση. Η βελτιστοποίηση είναι ένα συγκεκριμένο είδος ορθολογισμού, που υποστηρίζει ότι η συμπύκνωση της πολυπλοκότητάς (του στόχου) του σε έναν υπολογισμό παρέχει ένα ανώτερο είδος λύσης. Ο ρόλος του βελτιστοποιητή είναι να επαναλαμβάνει επανειλημμένα τα δεδομένα εκπαίδευσης μέχρι να ελαχιστοποιήσει τη συνάρτηση απώλειας, δηλαδή την απόκλιση ανάμεσα στα δεδομένα που εισήχθησαν και την πρόγνωση που πρέπει να κάνει η μηχανή για να προσφέρει λύση ή, πιο απλά, το ενδεχόμενο η μηχανή να κάνει λάθος. Όταν η απόκλιση αποφασιστεί (από άτομο ή μηχανή) ότι είναι αποδεκτή, το σύστημα μηχανικής μάθησης θεωρείται ότι έχει εκπαιδευτεί.
278 Για να υπάρξει, όμως, βελτιστοποίηση, πρέπει να υπάρχουν δεδομένα. Όσα περισσότερα. μάλιστα, τόσο μικρότερη η συνάρτηση απώλειας. Για αυτό, υπάρχει αυτή η μανία για τα πολλά μαζικά δεδομένα (big data) από τις εταιρείες. Είναι μάλιστα τόσο πολύτιμα τα δεδομένα, που οι εταιρείες-γίγαντες της τεχνολογίας (big-tech) πλέον στοχεύουν στην αχόρταγη απόκτηση των δεδομένων που προκύπτουν από τις χρήστριες των «υπηρεσιών τους».
282 Τα νευρωνικά δίκτυα από την άλλη, αποτελούν τη ραχοκοκαλιά των αλγορίθμων βαθιάς μάθησης. Είναι ο αριθμός των επιπέδων κόμβου ή το βάθος (τα επίπεδα) των νευρωνικών δικτύων που διακρίνει ένα μεμονωμένο νευρωνικό δίκτυο από έναν αλγόριθμο βαθιάς μάθησης. Με την σημερινή τεχνολογία, η μηχανική μάθηση είναι ουσιαστικά ισοδύναμη έννοια με τα συστήματα νευρωνικών δικτύων\**
284 https://www.gnu.org/philosophy/words-to-avoid.html#ArtificialIntelligence
289 Το πιο διαδεδομένο πρόγραμμα σήμερα, όπως προωθείται κάθε φορά που ΜΜΕ, στελέχη επιχειρήσεων αλλά ακόμα και ακαδημαϊκών που που θέλουν να αναφερθούν στην τεχνητή νοημοσύνη είναι το chatGPT. Το ενδιαφέρον της κοινής γνώμης είναι υψηλό, ενώ, ταυτόχρονα, είναι το πιο γρήγορα διαδεδομένο πρόγραμμα έως σήμερα, φθάνοντας τα 100 εκατομμύρια χρήστριες, μόλις σε 2 μήνες μετά την διάθεσή του\**.
291 Το υψηλό ενδιαφέρον όμως δεν σημαίνει πάντα πραγματική καινοτομία. Υπάρχουν πολλοί ερευνητές οι οποίοι δε συμφωνούν με την άποψη ότι το chatGPT είναι πραγματικά καινοτόμο. Σε μια συνέντευξή του στην Deutsche Welle, ο Dr Michael Cook, λέκτορας στο King's College του Λονδίνου, σημείωσε ότι προγράμματα σαν και αυτό δημιουργούν μια ψευδαίσθηση για το πόσο προηγμένα είναι. Ταυτόχρονα πρόσθεσε:
293 Το ότι ένας σκύλος μπορεί να κάνει χειραψία, όπως και ο Αϊνστάιν, δεν μπορεί να σημαίνει ότι το σκυλί είναι το ίδιο έξυπνο με τον Αϊνστάιν.
295 https://neuters.de/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/
298 Ακόμα πιο αποφασιστικά, ο Νόαμ Τσόμσκι αναφέρει\**:
300 https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html
303 Εν ολίγοις, το ChatGPT και τα αδέρφια του δεν είναι σε θέση να εξισορροπήσουν τη δημιουργικότητα με τους περιορισμούς. Είτε υπεργεννούν, παράγοντας και αλήθειες και ψεύδη, υποστηρίζοντας ηθικές και ανήθικες αποφάσεις εξίσου, είτε υπογεννούν, δείχνοντας μη δέσμευση σε οποιεσδήποτε αποφάσεις και αδιαφορία για τις συνέπειες. Δεδομένης της ηθικής, της ψεύτικης επιστήμης και της γλωσσικής ανικανότητας αυτών των συστημάτων, δεν μπορούμε παρά να γελάσουμε ή να κλάψουμε με τη δημοτικότητά τους.
306 Ενώ άλλοι, όπως ο Dr Dan McQuillan και ο πατέρας του ελεύθερου λογισμικoύ Dr Ritchard Stallman, χαρακτηρίζουν το chatGPT ως «μηχανή παραγωγής σαχλαμάρων»\**\**.
308 https://www.vice.com/en/article/akex34/chatgpt-is-a-bullshit-generator-waging-class-war
311 https://www.gnu.org/philosophy/words-to-avoid.html#ArtificialIntelligence
314 Προγράμματα επομένως σαν το chatGPT, έχουν αμφίβολα αποτελέσματα και, όπως θα δούμε παρακάτω, είναι αδύνατο να ελεγχθούν. Συνεπώς είναι απαραίτητο να εξετάζονται κριτικά από κράτη/επιχειρήσεις/επιστήμονες και να μην παρασύρονται από την «ευκολία» και τις πομπώδεις επικεφαλίδες. Όπως θα δούμε παρακάτω, υπάρχουν σημαντικά ηθικά ζητήματα που προκύπτουν τα οποία δεν πρέπει να παραβλέπονται.
318 Ηθικά ζητήματα γύρω από την τεχνητή νοημοσύνη
320 Ποιος ελέγχει τις μηχανές
323 Θα αποφασίζουν για εμάς οι μηχανές; Μήπως θα χάσουμε την θέση μας ως το πιο εξελιγμένο είδος; Είναι τελικά η τεχνητή νοημοσύνη το κουτί της Πανδώρας;
325 Τα παραπάνω ερωτήματα είναι συνηθισμένα και, συχνά, προκαλούν πανικό. Αρχικά, όπως έχει αναφερθεί, είμαστε τεχνολογικά πολύ μακρυά από το να κατασκευάσουμε μηχανές με αυτογνωσία που να έχουν την ικανότητα να αποφασίζουν για το πώς θα δράσουν ανεξάρτητα από ανθρώπινη παρέμβαση.
326 Είναι ακόμα οι άνθρωποι αυτοί που αποφασίζουν το πώς θα δράσει ο αλγόριθμος των μηχανών, τόσο σε επίπεδο μηχανικής μάθησης όσο και παραγωγής αποτελέσματος. Μάλιστα στις περισσότερες περιπτώσεις, απαιτούνται εργάτριες για να «τακτοποιήσουν» τα απέραντα δεδομένα, τα οποία συλλέγονται και τροφοδοτηθούν τον αλγόριθμο (ώστε να εκπαιδευτεί), βάζοντας ετικέτες\**. Παράδειγμα είναι η υπερεργολαβική συνεργασία του chatGPT με εταιρεία ενοικίασης 50.000 εργαζομένων στην Κένυα για επισήμανση, με μισθό λιγότερο από 2$/ώρα\**.
328 Η επισήμανση δεδομένων συμβάλει στον προσδιορισμό ακατέργαστων δεδομένων (δηλαδή εικόνων, αρχείων κειμένου, βίντεο) και, στη συνέχεια, την προσθήκη μιας ή περισσότερων ετικετών σε αυτά ώστε ένα μοντέλο μηχανικής εκμάθησης να πραγματοποιήσει πιο ακριβείς προβλέψεις.
331 https://time.com/6247678/openai-chatgpt-kenya-workers/
335 Τεχνολογία «μαύρο κουτί»
337 Οι εταιρείες που παράγουν λογισμικό σχετικό με την τεχνητή νοημοσύνη, αλλά και αυτές που παρέχουν σχετικές υπηρεσίες\**, βολεύονται μέσω της αποποίησης ευθυνών που προσφέρει η διατήρηση του μύθου για ανεξάρτητα «σκεπτόμενα μηχανήματα». Είδαμε όμως ότι στην πραγματικότητα είναι ανθρώπινη επιλογή το τι δεδομένα εισάγονται, πώς αξιοποιούνται από τα συστήματα και τελικά πώς εξάγονται και παρουσιάζονται στους χρήστες. Η εικόνα 3 σχηματοποιεί τα τρία στάδια που αναφέρθηκαν.
339 Υπηρεσίες παρέχουν πλέον όχι μόνο μικρές και μεγάλες ιδιωτικές εταιρείες αλλά και κρατικές υπηρεσίες.
341 .PSPIC "media/blackbox.eps" 3
344 Εικόνα 3: Λειτουργία "ΑΙ" \**.
346 Από Παραφέστα Νίκο, διατίθεται με άδεια: CC BY-SA 4.0
352 Ο τρόπος συλλογής των δεδομένων, τα οποία, όπως έχει αναλυθεί, είναι απαραίτητα για την εκπαίδευση των μηχανών, αποτελεί μια από τις πιο προβληματικές παραμέτρους της τεχνητής νοημοσύνης. Εταιρείες σαν την openAI, βρίσκονται συχνά στο επίκεντρο με κατηγορία ότι χρησιμοποιούν online περιεχόμενο χωρίς άδεια.
354 Η εφημερίδα New York times, για παράδειγμα, έκανε αγωγή σε Microsoft και OpenAI, ζητώντας αποζημίωση δισεκατομμυρίων δολλαρίων για τη χρήση περιεχομένου της εφημερίδας χωρίς να έχουν εξουσιοδότηση\**.
356 https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
358 Φυσικά, δεν είναι η μόνη περίπτωση. Παρακάτω περιγράφονται μερικές μόνο από τις περιπτώσεις που οι "big tech" συλλέγουν αχόρταγα δεδομένα των χρηστριών τους\**:
360 https://www.nytimes.com/2024/04/06/technology/tech-giants-harvest-data-artificial-intelligence.html
364 Η Google χρησιμοποιεί τα δεδομένα που προκύπτουν κατά τη χρήση των υπηρεσιών Youtube, gmail, google drive κ.α.
367 H Microsoft πέρα από την εμπλοκή της στο chatGPT, χρησιμοποιεί ακόμα και δεδομένα χρήσης των windows για να συγκεντρώσει υλικό για μηχανική μάθηση. Το ίδιο ισχύει και για πλατφόρμες όπως το Outlook mail.
370 To X(itter) απέκλεισε την πρόσβαση προγραμμάτων στην πλατφόρμα για να συλλέγει έχει αποκλειστικότητα στο περιεχόμενο
373 Η Meta έχει όρο στη χρήση των πλατφορμών της, facebook, instagram κτλ, ότι τα δεδομένα που διακινούνται περνάνε αυτόματα στην ιδιοκτησία της εταιρείας.
376 Με τον τρόπο όμως που πραγματοποιείται αυτή η συλλογή δεδομένων, προκύπτουν και ζητήματα υποεκπροσώπησης διαφόρων ομάδων. Για παράδειγμα έλεγχος ενός προγράμματος αναγνώρισης χαρακτηριστικών προσώπων είχε αρκετά καλά αποτελέσματα για λευκά άτομα, αλλά όχι για πιο σκουρόχρωμους\**. Αυτό γιατί η «εκπαίδευση» του συστήματος, πραγματοποιήθηκε με βάση τα στάνταρ της «Silicon Valley», περιοχής που με συντριπτική πλειοψηφία λευκού πληθυσμού.
378 Για να υπάρξει έλεγχος στο πως τα δεδομένα μας χρησιμοποιούνται είναι απαραίτητο να υπάρχει απόλυτη διαφάνεια στο τι είναι αυτά τα δεδομένα, πως συλλέχθηκαν αλλά και αν είναι διαθέσιμα προς χρήση σε όλα. Έτσι μόνο θα έχουμε τη δυνατότητα να αξιολογούμε, να ελέγχουμε περιπτώσεις παραβιάσεων της ιδιωτικότητάς μας αλλά ταυτόχρονα και να βελτιώνουμε την αξιοπιστία τους.
381 Αλγόριθμος, αυτός ο άγνωστος
383 Παρόλο που το όνομα της εταιρείας openAI προδιαθέτει σε ανοιχτή (open) λειτουργία, η αλήθεια είναι πολύ διαφορετική. Στην πραγματικότητα, τα περισσότερα συστήματα τεχνητής νοημοσύνης, είναι εμπορικά προγράμματα, των οποίων ο κώδικας δεν είναι προσβάσιμος. Αυτό σημαίνει ότι δεν υπάρχει τρόπος να εξεταστεί από τρίτα μέρη το πώς επεξεργάζονται τα εισαγόμενα δεδομένα. Καθώς το πως λειτουργεί ένας αλγόριθμος εξαρτάται καθαρά από το πως θα ρυθμιστεί από τον χειριστή του, δεν μπορούμε να έχουμε γνώση για ζητήματα όπως, τον τρόπο «εκπαίδευσης» του αλγόριθμου και το κατά πόσο επιλέγονται ορισμένες παράμετροι να έχουν μεγαλύτερη βαρύτητα από άλλες.
386 Την ίδια ώρα, τα συστήματα αυτά, ήδη χρησιμοποιούνται σε πληθώρα κρίσιμων λειτουργιών, όπως στην υγεία, στην παιδεία (όλων των σχολικών βαθμίδων), στην λειτουργία των δικαστηρίων και σε άλλες κρίσιμες κρατικές υποδομές. Η χρήση του, μάλιστα, αναμένεται να αυξηθεί ακόμα περισσότερο το επόμενο διάστημα. Πώς όμως μπορούμε να εμπιστευτούμε, σε τόσο νευραλγικούς τομείς της κοινωνίας και της δημοκρατίας, αυτά τα «μαύρα κουτιά» την αξιοπιστία των οποίων οποίων στερούμαστε να ελέγξουμε; Πως μπορούμε να ελέγξουμε, για παράδειγμα, αν μία γιατρός εμπιστεύτηκε σωστά μια εκτίμηση θνησιμότητας από ένα πρόγραμμα, με αποτέλεσμα να στερήσει ένα φάρμακο από έναν ασθενή;
389 Στην εκπαίδευση (δευτεροβάθμια, τριτοβάθμια και πανεπιστημιακή), η χρήση του chatGPT έχει πλέον απογειωθεί. Το σύστημα ελέγχου λογοκλοπής Turnitin, ανακοίνωσε ότι το 2023 περίπου 14 εκατομμύρια φοιτητικές εργασίες είναι πιθανό να χρησιμοποίησαν μορφές τεχνητής νοημοσύνης και ότι περίπου το 75% των μαθητριών στο Λύκειο χρησιμοποιεί συστήματα μηχανικής μάθησης ακόμα και αν αυτά έχουν απαγορευτεί/**.
391 https://www.turnitin.com/blog/one-year-of-chatgpt-where-are-we-now
393 Παράλληλα, σε επίπεδο έρευνας, ακόμα και μέλη της ακαδημαϊκής κοινότητας χρησιμοποιούν την τεχνητή νοημοσύνη, τόσο για τη συγγραφή ερευνών όσο και για την ομότιμη αξιολόγηση για την δημοσίευσή τους σε επιστημονικά περιοδικά\**. Αυτό συμβαίνει ενώ δεν υπάρχει καμία επιστημονική γνώση για την αξιοπιστία τους.
395 https://web.archive.org/web/20240120015516/https://onlinelibrary.wiley.com/doi/full/10.1002/leap.1570
398 Μαθησιακά, καθώς η χρήση προγραμμάτων όπως το chatGPT στην εκπαίδευση είναι πρόσφατη, δεν υπάρχουν ακόμα ασφαλείς μελέτες για τα ζητήματα που ενδέχεται να προκύψουν. Μπορούμε όμως να κάνουμε μια εκτίμηση παρατηρώντας τα αποτελέσματα της μακροχρόνιας χρήσης, μια σαφώς πιο ήπιας τεχνολογίας, στην εκπαίδευση, της χρήσης ορθογράφου. Συγκεκριμένα, μια μελέτη του Χάρβαρντ του 2005
402 διαπίστωσε ότι 37 άτομα που παρήγαγαν μια μελέτη κάνοντας χρήση ορθογραφικού ελέγχου - έναντι 28 ατόμων χωρίς - βασίζονταν ουσιαστικά στην τεχνολογία για να κάνουν την ορθογραφία για αυτούς. Αυτό δεν είχε να κάνει με τις ικανότητές στους στην ορθογραφία, αλλά αντίθετα στην τεμπελιά και την αυτοπεποίθηση ότι δεν την χρειάζονταν. Αναρωτιόμαστε, λοιπόν: αν οι ορθογράφοι μας έκαναν ανορθόγραφους\**, τότε τι θα συμβεί αν μια, μη αξιολογημένη μηχανή, εκπονεί και διορθώνει τις εργασίες μαθητριών, φοιτητών και μελών της ακαδημαϊκής κοινότητας;
404 https://www.bbc.co.uk/news/education-18158665
407 Τα ζητήματα, όμως, δε σταματούν στην παιδεία. Ήδη υπάρχουν σκέψεις για χρήση της τεχνητής νοημοσύνης ακόμα και στις δικαστικές αίθουσες στην Ελλάδα. Συγκεκριμένα στο τμήμα «Τεχνητή Νοημοσύνη στον τομέα της Δικαιοσύνης» στην παράγραφο 9.4.2 της «βίβλου ψηφιακού μηχανισμού 2020-2025»\** (ΦΕΚ 2894/Β/5-7-2021)
409 https://digitalstrategy.gov.gr/website/static/website/assets/uploads/digital_strategy.pdf
411 υπάρχει αναφορά για υποβοήθηση στην λήψη αποφάσεων των δικαστικών οργάνων από προγράμματα τεχνητής νοημοσύνης, ακόμα και για αυτόματη λήψη αποφάσεων για συγκεκριμένες υποθέσεις. Η εξοικονόμηση χρόνου και χρήματος που αναφέρεται ως αιτία, δεν δικαιολογεί την χρήση ενός μη διαπιστευμένου λογισμικού. Οι συνέπειες από μια πιθανή λάθος καταδίκη ανθρώπων από λανθασμένη εκτίμηση μπορεί να είναι ολέθριες για το δικαστικό σύστημα. Η περίπτωση του Compass, ενός προγράμματος εκτίμησης της πιθανότητας ένας ένοχος να τελέσει εκ νέου παραβάσεις, είναι χαρακτηριστική: το συγκεκριμένο λογισμικό, χρησιμοποιούνταν από τις δικαστίνες των ΗΠΑ, ώστε να αποφασίσουν το ύψος της κάθειρξης. Μια έρευνα έδειξε όμως, ότι το συγκεκριμένο πρόγραμμα χρησιμοποιούσε αλγόριθμο ο οποίος ήταν εξαιρετικά μεροληπτικός απέναντι σε σκουρόχρωμες σε σχέση με λευκές\**.
413 https://web.archive.org/web/20240612092819if_/https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
415 Αποτέλεσμα ήταν να υπάρξει παρέμβαση μεγάλης μερίδας δικαστικών και νομικών, ζητώντας να ανοιχτεί ο κώδικας τόσο του συγκεκριμένου προγράμματος όσο και των υπολοίπων που χρησιμοποιούν τη μέθοδο της πρόβλεψης με τεχνολογίες μηχανικής μάθησης, ώστε να ελεγχθούν\**.
417 https://web.archive.org/web/20240329055803if_/https://www.theregister.com/2024/02/16/black_box_government/
423 Στις 13 Μαρτίου 2024, η ευρωβουλή ενέκρινε το AI Act. Πρόκειται για έναν νόμο ο οποίος, μετά από 3 χρόνια διαβουλεύσεων, θα οριοθετούσε την τεχνητή νοημοσύνη. Παρόλο που όντως αποτελεί παγκόσμια το πρώτο μεγάλης κλίμακας νομοθέτημα, άφησε μια γλυκόπικρη γεύση]\**.
425 https://www.euronews.com/next/2024/03/16/eu-ai-act-reaction-tech-experts-say-the-worlds-first-ai-law-is-historic-but-bittersweet
428 Αρχικά, γιατί τόσο η δομή του, όσο και οι ασάφειες, ανοίγουν τον δρόμο στις γιγάντιες εταιρείες πληροφορικής να ενισχύσουν το μονοπώλιό τους\**.
430 https://www.aljazeera.com/news/2024/3/13/eu-parliament-greenlights-landmark-artificial-intelligence-regulations
432 Αυτό συμβαίνει εν πρώτοις, γιατί υπάρχουν «θολές» διατάξεις τις οποίες μπορούν να εκμεταλλευτούν τα μεγάλα νομικά τους τμήματά. Επιπλέον, με δεδομένο ότι εταιρείες όπως Meta, Apple, Google, Microsoft ξοδεύουν πάνω από 100 εκατομμύρια ευρώ για να ασκήσουν πολιτική πίεση στην Ε.Ε./**
434 https://www.euronews.com/my-europe/2023/09/11/tech-companies-spend-more-than-100-million-a-year-on-eu-digital-lobbying
436 και, συχνά όχι με διαφανείς μεθόδους\**,
438 https://www.euronews.com/my-europe/2023/09/11/tech-companies-spend-more-than-100-million-a-year-on-eu-digital-lobbying
440 οι ασάφειες στο AI Act ευνοούν την δυνατότητα να ασκηθεί επιπλέον πίεση και να υπάρχει ακόμα μεγαλύτερη ευνοϊκή μεταχείριση των εν λόγω εταιρειών.
442 Πέρα όμως από τον αθέμιτο ανταγωνισμό, ανακύπτουν και ζητήματα δημοκρατίας. Συγκεκριμένα, στους κανόνες γύρω από τη χρήση της τεχνητής νοημοσύνης, υπάρχουν σημαντικές εξαιρέσεις:
445 Στα άρθρα 2.3 και 2.6, εξαιρούνται τα συστήματα τεχνητής νοημοσύνης για λόγους εθνικής ασφαλείας και
448 στο άρθρο 5.2, η απαγόρευση της χρήσης συστημάτων τεχνητής νοημοσύνης σε πραγματικό χρόνο αίρεται για λόγους αστυνόμευσης.
451 Οι παραπάνω εξαιρέσεις, ειδικά μετά το σκάνδαλο παρακολουθήσεων με το Predator στην Ελλάδα\**
453 http://web.archive.org/web/20231101155720if_/https://www.efsyn.gr/ellada/koinonia/207015_polites-parakoloythoyntai-i-dimokratia-apeileitai
455 και το «ξεχείλωμα» των ζητημάτων εθνικής ασφάλειας, δημιουργούν τεράστιες δημοκρατικές οπισθοχωρήσει και μπορούμε να ισχυριστούμε ότι έρχονται ενάντια στο πνεύμα του άρθρου 19 του συντάγματος.
458 Συμπεράσματα και προτάσεις
460 Η κριτική προσέγγιση του συγγραφέα της παρούσας εργασίας στα συστήματα της τεχνητής νοημοσύνης, δεν έχει να κάνει με την ίδια την τεχνολογία αλλά με τις υπερβολές και την παραπληροφόρηση. Άλλωστε, καμία τεχνολογία δεν είναι από μόνη της ικανή για καλό ή για κακό. Η πυρηνική ενέργεια για παράδειγμα μπορεί να εξαϋλώσει τον πλανήτη μπορεί, όμως, και υπό προϋποθέσεις να προσφέρει απεριόριστη καθαρή ενέργεια. Έτσι και η τεχνητή νοημοσύνη: παρόλο τους κινδύνους που παρουσιάστηκαν, μπορεί να αποτελέσει σημαντικό εργαλείο έρευνας και επιστήμης.
461 Απαραίτητο είναι, όμως, να υπάρχει διαφάνεια ώστε να μπορούμε να έχουμε όλες αυτές τις αναγκαίες διαβεβαιώσεις ότι μπορούμε να την εμπιστευτούμε. Ήδη έχουμε την εμπειρία ότι αξιόπιστο λογισμικό είναι το λογισμικό στο οποίο μπορούμε να έχουμε πρόσβαση - το ελεύθερο λογισμικό.
463 Το Ελεύθερο λογισμικό παρέχει στους χρήστες την ελευθερία να εκτελούν, αντιγράφουν, διανέμουν, μελετούν, τροποποιούν και βελτιώνουν το Ελεύθερο λογισμικό. Για την ακρίβεια, αναφέρεται σε τέσσερις βασικές ελευθερίες\**:
467 Την ελευθερία να εκτελείτε το πρόγραμμα, για οποιονδήποτε σκοπό (ελευθερία 0).
470 Την ελευθερία να μελετάτε τον τρόπο λειτουργίας του προγράμματος και να το προσαρμόζετε στις ανάγκες σας (ελευθερία 1). Η πρόσβαση στον πηγαίο κώδικα είναι προϋπόθεση για να ισχύει κάτι τέτοιο.
473 Την ελευθερία να αναδιανέμετε αντίγραφα του προγράμματος ώστε να βοηθάτε το συνάνθρωπο σας (ελευθερία 2).
476 Την ελευθερία να βελτιώνετε το πρόγραμμα και να δημοσιεύετε τις βελτιώσεις που έχετε κάνει στο ευρύ κοινό, ώστε να επωφεληθεί ολόκληρη η κοινότητα (ελευθερία 3). Η πρόσβαση στον πηγαίο κώδικα είναι προϋπόθεση για να ισχύει κάτι τέτοιο.
479 Αντί σαν είδος να ξοδεύουμε απεριόριστους πόρους, ανθρώπινους και χρηματικούς, σε εμπορικά κλειστά συστήματα με αμφίβολο αποτέλεσμα, ας επενδύσουμε σε ελεύθερα, με ανοιχτά πρότυπα και δεδομένα που θα ωφελήσουν την κοινωνική μας πρόοδο.