yannidakis@gmail.com

Εμφάνιση αναρτήσεων με ετικέτα τεχνητή νοημοσύνη. Εμφάνιση όλων των αναρτήσεων
Εμφάνιση αναρτήσεων με ετικέτα τεχνητή νοημοσύνη. Εμφάνιση όλων των αναρτήσεων

Σάββατο, 18 Φεβρουαρίου 2017

ΕΠΙΣΤΗΜΗ ΤΗΣ ΤΕΧΝΟΛΟΓΙΑΣ ΦΕΒΡΟΥΑΡΙΟΥ ~ αρχές της ρομποτικής

παρουσίαση νέων τεχνολογιών & η χρηστικότητα & συμβολή τους στην καθημερινότητα

*Το ρομπότ δεν μπορεί να τραυματίσει τον άνθρωπο, ή να επιτρέψει, μέσω αμέλειας, τον τραυματισμό του ανθρώπου.
*Το ρομπότ πρέπει να υπακούει στις εντολές που του δίνει ο άνθρωπος εκτός και αν αυτές οι εντολές έρχονται σε αντιπαράθεση με τον πρώτο νόμο.
*Το ρομπότ πρέπει να προστατεύει τον εαυτό του αρκεί να μην παραβαίνει την πρώτη ή την δεύτερη εντολή.


Σε πολλούς, αυτοί οι τρεις νόμοι, μπορεί να φαίνονται γνώριμοι. Είναι οι 3 Νόμοι της Ρομποτικής τους οποίους καθιέρωσε ο συγγραφέας επιστημονικής φαντασίας Isaac Asimov το 1942! Οι Νόμοι αυτοί αποτελούν κομμάτι κάθε ρομποτικής μηχανής και δεν μπορούν να παρακαμφθούν ή διαγραφούν.

Πλέον, είμαστε στο 2017 και πολλά έχουν αλλάξει από τότε. Το κυριότερο είναι ότι η ρομποτική πλέον δεν είναι σενάριο επιστημονικής φαντασίας, αλλά, πραγματικότητα! Και επειδή, όπως έχουμε κουβεντιάσει πολλές φορές από αυτή την ενότητα, η ρομποτική έχει ηθικές και κοινωνικές προεκτάσεις, είναι πολύ σημαντικό να προσδιορίσουμε κανόνες που την διέπουν. Και είναι εξίσου σημαντικό να το κάνουμε τώρα που είμαστε ακόμα στην αρχή.


Αυτό ήταν και ένα από τα ζητούμενα του συνεδρίου Beneficial AI 2017 που πραγματοποιήθηκε στο Πουέρτο Ρίκο στις αρχές του έτους. Το Ινστιτούτο Future of Life, διοργάνωσε στα πλαίσια του συνεδρίου Beneficial AI 2017, ένα εργαστήρι 2,5 ημερών όπου διακεκριμένοι επιστήμονες από όλο τον κόσμο και όλα τα κομμάτια της Τεχνητής Νοημοσύνης κατέληξαν σε 23 Αρχές τις οποίες όλοι πρέπει να τηρούν όταν ασχολούνται με την ανάπτυξη Τεχνητής Νοημοσύνης και Ρομποτικής.


Έχει ιδιαίτερο ενδιαφέρον να δούμε επιγραμματικά αυτές τις Αρχές, ανά κατηγορία:

Έρευνα:
  1. Ο στόχος της έρευνας είναι να δημιουργήσει Τεχνητή Νοημοσύνη (ΑΙ Artificial Intelligence) που ωφελεί την ανθρωπότητα.
  2. Η χρηματοδότηση στην έρευνα ΑΙ πρέπει να καλύπτει και έρευνα γύρω από την ηθική, την νομοθεσία, τις κοινωνικές επιστήμες, κλπ.
  3. Πρέπει να υπάρχει υγιής σχέση ανάμεσα στους επιστήμονες και τους νομοθέτες.
  4. Πρέπει να υπάρχει διαφάνεια και εμπιστοσύνη στην επιστημονική κοινότητα.
  5. Πρέπει πάση θυσία να αποφεύγονται πρόχειρες λύσεις και μπαλώματα. Όλοι οι κανόνες ασφαλείας πρέπει να τηρούνται κατά γράμμα.
Ηθική και Αξίες:
  1. Όλα τα συστήματα ΑΙ πρέπει να λειτουργούν με ασφάλεια για όσο χρονικό διάστημα βρίσκονται σε λειτουργία και αυτή η ασφαλής λειτουργία θα πρέπει να μπορεί να επικυρωθεί οποιαδήποτε στιγμή.
  2. Σε περίπτωση βλάβης ή τραυματισμού, θα πρέπει να μπορούμε να καταλάβουμε τι έφταιξε.
  3. Δικαστικές ή νομοθετικές αποφάσεις που λαμβάνονται από ΑΙ πρέπει να καταγράφονται και να επεξηγούνται με πλήρη λεπτομέρεια.
  4. Οι σχεδιαστές και προγραμματιστές ΑΙ είναι υπεύθυνοι για την χρήση αλλά και την κατάχρηση του προϊόντος τους.
  5. Οι μηχανές ΑΙ πρέπει να έχουν την ίδια αντίληψη ηθικής και ευθύνης με τους ανθρώπους.
  6. Συστήματα ΑΙ πρέπει να σχεδιάζονται με γνώμονα τις ανθρώπινες αξίες ηθικής, ελευθερίας, κλπ.
  7. Οι άνθρωποι θα πρέπει να μπορούν να προσπελάσουν και να διαχειριστούν τα προσωπικά δεδομένα που χειρίζονται οι εφαρμογές ΑΙ.
  8. Τα προσωπικά δεδομένα που συλλέγονται από τις μηχανές πρέπει να προστατεύονται επαρκώς.
  9. Οι εφαρμογές ΑΙ πρέπει να σχεδιάζονται με σκοπό να επωφεληθούν όσο πιο πολλοί άνθρωπο.
  10. Τα οικονομικά οφέλη από την χρήση ΑΙ θα πρέπει να μοιράζονται με όλη την ανθρωπότητα.
  11. Ο άνθρωπος θα πρέπει να μπορεί να ελέγχει και να αποφασίζει τι καθήκοντα μπορεί να δώσει στην ΑΙ.
  12. Ο άνθρωπος δεν θα πρέπει να υποδουλώνει τις μηχανές αλλά να εκτιμά τις δυνατότητες και την προσφορά τους.
  13. Θα πρέπει να αποφευχθεί η χρήση της ΑΙ στην βιομηχανία όπλων και πολέμου.
Μακροχρόνιες Αρχές:
  1. Δεν θα πρέπει να κάνουμε εικασίες σχετικά με το πόσο μακριά μπορούμε να φτάσουμε την τεχνολογία της ΑΙ.
  2. Η τεχνολογία αυτή μπορεί να επιφέρει θεμελιώδες αλλαγές στην ανθρωπότητα και τον πλανήτη για αυτό και πρέπει να σχεδιαστεί προσεκτικά.
  3. Καλή διαχείριση ρίσκου είναι επιτακτική.
  4. Μηχανισμοί ελέγχου θα πρέπει να σχεδιάζονται και να υλοποιούνται σε κάθε ΑΙ εφαρμογή.
  5. Ενδεχόμενη έρευνα γύρω από την υπέρ-νοημοσύνη θα πρέπει να γίνει μόνο με γνώμονα το κοινό καλό όλης της ανθρωπότητας.
Η λίστα αυτή δεν είναι η τελική, ούτε και ολοκληρωμένη, αλλά, δίνει μια πολύ καλή ιδέα του πόσο έχει αλλάξει η αντίληψη των επιστημόνων τα τελευταία χρόνια. Είναι τρανή απόδειξη ότι η ΑΙ και τα ρομπότ έχουν αρχίσει και μπαίνουν για τα καλά στην ζωή μας σε σημείο μάλιστα που η επιστημονική κοινότητα αντιλαμβάνεται ότι πρέπει να αναλάβει δράση και να σχεδιάσει το ηθικό και νομοθετικό πλαίσιο υπό το οποίο οι μηχανές αυτές θα δουλεύουν.

Αν ο Isaac Asimov ζούσε, θα είχε εκπλαγεί με την πρόοδο που έχουμε κάνει σαν ανθρώπινο είδος. Και θα συνειδητοποιούσε ότι αν ο άνθρωπος ονειρευτεί ή φανταστεί κάτι, είναι θέμα χρόνου μέχρι να το υλοποιήσει! +Vassilis Anastasiadis

σχόλια; αντιρρήσεις; ερωτήσεις;
ΠΡΟΣΘΕΣΤΕ ΤΟΝ ΠΡΟΒΛΗΜΑΤΙΣΜΟ ΣΑΣ
ΠΑΝΩ ΣΤΟ ΣΗΜΕΡΙΝΟ ΘΕΜΑ
 Διαβάστε περισσότερα.. »

Σάββατο, 17 Δεκεμβρίου 2016

ΕΠΙΣΤΗΜΗ ΤΗΣ ΤΕΧΝΟΛΟΓΙΑΣ ΔΕΚΕΜΒΡΙΟΥ ~ η κυριαρχία της τεχνητής νοημοσύνης

παρουσίαση νέων τεχνολογιών & η χρηστικότητα & συμβολή τους στην καθημερινότητα

Έχουμε αναφερθεί πολλές φορές στην Τεχνητή Νοημοσύνη και τις δυνατότητές της. Συνήθως, όμως, τα περισσότερα κανάλια, εφημερίδες, μπλογκς, κλπ. στέκονται σε επιτεύγματα της τεχνολογίας που είναι φανταχτερά και εντυπωσιακά. Πολύ λίγος κόσμος φαίνεται να γνωρίζει τις κοινωνικό-πολιτικές προεκτάσεις που έχει η τεχνολογία ή για τα ζητήματα ηθικής που αυτή δημιουργεί. Το άρθρο αυτού του μήνα καταπιάνεται με την αφήγηση μιας ιστορίας που, ελπίζουμε, θα «ερεθίσει» τους αναγνώστες και θα τους προσφέρει μια άλλη οπτική γωνία της Τεχνητής Νοημοσύνης, αυτή του εντυπωσιακά τρομακτικού! 




Η γνωστή σε όλους μας Google, έχει δυο εργαστήρια που είναι λιγότερο γνωστά στο ευρύ κοινό, το Google Brain και το Deep Mind. Στόχος των ομάδων που δουλεύουν σε αυτά τα εργαστήρια είναι να «πραγματοποιήσουν το μέλλον»! Δεν υπάρχουν περιορισμοί, προϋπολογισμοί, στόχοι, προσδοκίες και άλλοι λοιποί επιχειρηματικοί φραγμοί. Οι επιστήμονες έχουν μονάχα μια εντολή, να μην οραματίζονται αλλά να κάνουν πράξη!

Η ομάδα των Η.Π.Α (Google Brain), προ λίγων μηνών, έκανε ένα πείραμα. Δημιούργησε τρία, απλά νευρωνικά δίκτυα τα οποία δεν παραμετροποίησε στο ελάχιστο: την Αλίκη, τον Μπομ και την Εύα. Ο στόχος των δικτύων ήταν απλός. Η Αλίκη έπρεπε να στείλει ένα μήνυμα στον Μπομπ. Το μήνυμα θα έπρεπε να είναι κρυπτογραφημένο (από την Αλίκη). Ο Μπομπ θα έπρεπε να καταφέρει να ανοίξει το μήνυμα και να το διαβάσει. Η Εύα θα έπρεπε να προσπαθήσει να σπάσει την κρυπτογράφηση και να διαβάσει το μήνυμα (παίζοντας τον ρόλο του κατασκόπου). Το μόνο που δόθηκε στην Αλίκη και τον Μπομπ ήταν το κοινό/δημόσιο κλειδί κρυπτογράφησης (η τεχνολογία αυτή λέγεται συμμετρική κρυπτογράφηση και είναι πολύ διαδεδομένη στις ηλεκτρονικές επικοινωνίες).



Το πιο σημαντικό όμως είναι ότι τα δίκτυα δεν έλαβαν καμία πληροφορία σχετικά με το πώς να κρυπτογραφήσουν,  τι τεχνολογίες να χρησιμοποιήσουν, κλπ. Το μόνο που τους δόθηκε ήταν μια συνάρτηση που εξηγούσε τι θεωρείται αποτυχία στο πείραμα (πχ. Αν το μήνυμα μεταδοθεί και η Εύα το διαβάσει, τότε είναι αποτυχημένη η προσπάθεια).



Τα αποτελέσματα του πειράματος ήταν εντυπωσιακά. Αρχικά, τα περισσότερα μηνύματα ήταν εντελώς αδύνατο να διαβαστούν από τον Μπομπ. Προοδευτικά, η μέθοδος κρυπτογράφησης άρχισε να βελτιώνεται και ο Μπομπ μπορούσε να αποκωδικοποιήσει τα μηνύματα και να τα διαβάσει. Το ίδιο όμως έκανε και η Εύα, οπότε το αποτέλεσμα ήταν πάλι αποτυχημένο. Σιγά σιγά όμως, η Αλίκη και ο Μπομπ κατάφεραν να αναπτύξουν μια μέθοδο κρυπτογράφησης την οποία ήταν αδύνατο να σπάσει η Εύα! Τα μηνύματα όχι μόνο ήταν κρυπτογραφημένα από την Αλίκη, αλλά ο Μπομπ μπορούσε να τα ανοίξει και να τα διαβάσει με χαρακτηριστική ευκολία, ενώ η Εύα όσο και να προσπαθούσε, αποτύγχανε!

Γράφημα που δείχνει πόσο έξω άρχισε να πέφτει η Εύα

 Το πείραμα θεωρήθηκε άκρως επιτυχημένο και απέδειξε ότι δίκτυα τεχνητής νοημοσύνης μπορούν να επικοινωνήσουν και να προσαρμόσουν την μορφή επικοινωνίας τους ακόμα και με ελάχιστη παρέμβαση από εμάς.

Είναι πράγματι εντυπωσιακό το πόσο μακριά έχει φτάσει η επιστήμη και η τεχνολογία! Σίγουρα, τα ηθικά ζητήματα παραμένουν και θα γίνονται ολοένα και πιο επίκαιρα όσο οι επιστήμονες συνεχίζουν να μας εντυπωσιάζουν με τα επιτεύγματά τους. Αλλά, είναι εξίσου σίγουρο ότι θα βρεθούν λύσεις για όλα αυτά τα θέματα και η κοινωνία θα προσαρμοστεί στα νέα δεδομένα. Άλλωστε, δεν θα είναι η πρώτη φορά που γίνεται αυτό (Βιομηχανική επανάσταση, μηχανές, υπολογιστές, κλπ.).

Είπαμε, όμως, στην αρχή, ότι θα προσφέρουμε μια τρομακτική οπτική γωνία σε όσους διαβάσουν το άρθρο. Και μέχρι τώρα, η αλήθεια είναι, το άρθρο είχε ένα αέρα αισιοδοξίας και πίστης. Και αυτό γιατί δεν αναφερθήκαμε σε μια μικρή λεπτομέρεια του πειράματος..



Όταν οι επιστήμονες ανέλυσαν τα δεδομένα του πειράματος, παρατήρησαν κάτι το εντυπωσιακό. Η Αλίκη και ο Μπομπ, στην προσπάθειά τους να πετύχουν τον στόχο τους, είχαν δημιουργήσει μια τεχνική κρυπτογράφησης δεδομένων η οποία δεν είναι γνωστή σε κανέναν επιστήμονα και δεν υπάρχει αυτή την στιγμή πουθενά! Και το ακόμα πιο εντυπωσιακό είναι ότι, όσο και να προσπάθησαν, κανείς από την ομάδα του Google Brain δεν κατάφερε να καταλάβει πώς δουλεύει η κρυπτογράφηση αυτή και ούτε φυσικά να την σπάσει.

Πόσο σας τρομάζει, άραγε, το γεγονός ότι μια «μηχανή» κατάφερε να μάθει να επικοινωνεί με μια άλλη «μηχανή» χωρίς ο άνθρωπος να μπορεί να καταλάβει το μήνυμα;;!


Καλά Χριστούγεννα σε όλους! +Vassilis Anastasiadis


σχόλια; αντιρρήσεις; ερωτήσεις;
ΠΡΟΣΘΕΣΤΕ ΤΟΝ ΠΡΟΒΛΗΜΑΤΙΣΜΟ ΣΑΣ
ΠΑΝΩ ΣΤΟ ΣΗΜΕΡΙΝΟ ΘΕΜΑ
 Διαβάστε περισσότερα.. »