Acrobase  

Καλώς ήρθατε στην AcroBase.
Δείτε εδώ τα πιο πρόσφατα μηνύματα από όλες τις περιοχές συζητήσεων, καθώς και όλες τις υπηρεσίες της AcroBase.
H εγγραφή σας είναι γρήγορη και εύκολη.

Επιστροφή   Acrobase > Υπολογιστές και Τεχνολογία > Τεχνολογικές ειδήσεις
Ομάδες (Groups) Τοίχος Άρθρα acrobase.org Ημερολόγιο Φωτογραφίες Στατιστικά

Notices

Δεν έχετε δημιουργήσει όνομα χρήστη στην Acrobase.
Μπορείτε να το δημιουργήσετε εδώ

Απάντηση στο θέμα
 
Εργαλεία Θεμάτων Τρόποι εμφάνισης
  #1  
Παλιά 15-08-06, 08:48
Το avatar του χρήστη Xenios
Xenios Ο χρήστης Xenios δεν είναι συνδεδεμένος
Administrator
 

Τελευταία φορά Online: 12-11-16 11:12
Φύλο: Άντρας
«Εμπιστευθείτε με, είμαι ρομπότ!»

Την ώρα που τα ρομπότ εισέρχονται σε σπίτια και γραφεία, καθίσταται αναγκαίο να διασφαλίσουμε ότι είναι ακίνδυνα για τον άνθρωπο. Πώς θα το κάνουμε, όμως;

Το 1981, ο Κέντζι Ουράτα, 37χρονος Ιάπωνας βιομηχανικός εργάτης, σκαρφάλωσε πάνω από δίχτυ ασφαλείας για να πραγματοποιήσει προγραμματισμένες εργασίες συντήρησης σε μεγάλο βιομηχανικό ρομπότ. Στη βιασύνη του, ο Κέντζι δεν έσβησε, όμως, σωστά το ρομπότ. Αδυνατώντας να εντοπίσει την παρουσία του Κέντζι, το πανίσχυρο υδραυλικό μπράτσο του ρομπότ συνέχισε τη λειτουργία του και έσπρωξε τον άτυχο μηχανικό μέσα σε συσκευή κοπής. Ο θάνατός του, έκανε τον Ουράντα το πρώτο καταγεγραμμένο ανθρώπινο θύμα ενός ρομπότ.

Αυτό το βιομηχανικό ατύχημα δεν θα είχε συμβεί σε έναν κόσμο, όπου η συμπεριφορά των ρομπότ θα υπάκουε στους Τρεις Νόμους της Ρομποτικής, όπως τους περιέγραψε ο συγγραφέας επιστημονικής φαντασίας Ισαάκ Ασίμοφ. Οι Νόμοι εμφανίσθηκαν για πρώτη φορά στο βιβλίο «Εγώ, το Ρομπότ», συλλογή διηγημάτων, που εκδώθηκε το 1950 και μεταφέρθηκε πρόσφατα στην κινηματογραφική οθόνη από το Χόλιγουντ. Δεκαετίες μετά την πρώτη περιγραφή τους, οι Νόμοι που σχεδιάσθηκαν κατά τέτοιο τρόπο, ώστε να εξασφαλίζουν την ασφάλεια του ανθρώπου από τις ενέργειες -ή την απραξία- των ρομπότ, παραμένουν ανενεργοί.

Μηχανισμοί ασφαλείας

Πράγματι, παρά την υιοθέτηση βελτιωμένων μηχανισμών ασφάλειας, τα ρομπότ έχουν προκαλέσει πολλά ανθρώπινα θύματα από το 1981. Ανθρωποι καταπλακώθηκαν, χτύπησαν τα κεφάλια τους, κάηκαν ή δέχθηκαν ακόμη και φορτία λιωμένου αλουμινίου πάνω τους, από δυσλειτουργίες ρομπότ. Το 2005, η Βρετανία κατέγραψε 77 ατυχήματα, στα οποία ενεπλάκησαν ρομπότ.

Με τα ρομπότ να ετοιμάζονται τώρα να βγουν από τα βιομηχανικά τους «κλουβιά», για να μετακομίσουν στα σπίτια και τα γραφεία μας, οι ρομποτιστές εκφράζουν ανοιχτά τις ανησυχίες τους για τις επιπτώσεις στην ασφάλεια των ανθρώπων. Για να αντιμετωπίσουν τους φόβους αυτούς, κορυφαίοι ειδικοί της ρομποτικής μαζεύτηκαν και εκπόνησαν θεωρίες για το πώς μπορούν να προληφθούν τα ατυχήματα με υπαίτιους ρομπότ. Η νέα ομάδα «ρομποτο-ειδικών» συναντήθηκε στις αρχές του έτους στη Γένοβα της Ιταλίας και ανακοίνωσε τα πορίσματά της στο Ευρωπαϊκό Συμπόσιο Ρομποτικής στο Παλέρμο της Σικελίας, τον περασμένο Μάρτιο.

"Η ασφάλεια, η πρόληψη ατυχημάτων και το σεξ είναι οι μεγάλες μας ανησυχίες», λέει ο Χένρικ Κρίστενσεν, πρόεδρος του Ευρωπαϊκού Δικτύου Ρομποτικής στο Βασιλικό Ινστιτούτο Επιστημών της Στοκχόλμης στη Σουηδία και ένας εκ των ιδρυτών της ομάδας «ρομποτο-ειδικών». Πρέπει τα ρομπότ να είναι τόσο βαριά και τόσο ισχυρά, ώστε να μπορούν να τσακίσουν έναν άνθρωπο; Η «δυσλειτουργία συστημάτων» αποτελεί βάσιμο ελαφρυντικό για ένα ρομποτικό αεροσκάφος, το οποίο παραβιάζει τη Συνθήκη της Γενεύσης βομβαρδίζοντας αμάχους; Μπορούν να είναι νόμιμες οι ρομποτικές ερωτικές κούκλες, με μορφές παιδιών;

Τα ερωτήματα αυτά, που μπορεί να μοιάζουν θεωρητικά στους περισσότερους από εμάς, ίσως βρεθούν στο επίκεντρο του ενδιαφέροντος στο κοντινό μέλλον, σύμφωνα με τον δρ Κρίστενσεν.

Σύμφωνα με έκθεση της Οικονομικής Επιτροπής του ΟΗΕ, ο αριθμός ρομπότ οικιακών βοηθών είχε τριπλασιασθεί το 2002, σε σχέση με το 2000. Μέχρι τα τέλη του 2003, πάνω από 600.000 ρομποτικές ηλεκτρικές σκούπες και μηχανές κουρέματος γκαζόν λειτουργούσαν σε σπίτια όλου του κόσμου, με τον αριθμό αυτό να αναμένεται να φθάσει τα 4 εκατομμύρια, μέχρι τα τέλη του 2007. Ιαπωνικές βιομηχανίες διαγκωνίζονται για την κατασκευή ανθρωπόμορφων ρομπότ, που θα εξυπηρετούν ηλικιωμένους, ενώ η Νότιος Κορέα έχει θέσει στόχο ότι μέχρι το 2020, το 100% των νοικοκυριών της θα διαθέτει οικιακά ρομπότ. Ενόψει της εξάπλωσης των μηχανικών βοηθών, ο δρ Κρίστενσεν εκτιμά ότι η ώρα είναι κατάλληλη για την εκπόνηση συγκεκριμένων κανόνων ασφάλειας και ηθικής αξιοποίησης των ρομπότ.

Σταμάτα εδώ!

Τί πρωτοβουλίες λαμβάνονται λοιπόν για να προστατευθούμε από τις μηχανικές απειλές; «Όχι αρκετές», λέει ο Μπλέι Ουίτμπι, ειδικός της τεχνητής νοημοσύνης στο Πανεπιστήμιο του Σάσεξ της Αγγλίας. Αυτό δεν εκπλήσσει βέβαια κανέναν, καθώς ο ερευνητικός τομέας της «ασφάλειας ρομποτικών μηχανών» έχει ηλικία μόλις μίας δεκαετίας.

Τα πράγματα, όμως, αλλάζουν και οι ερευνητές ασχολούνται ολοένα και περισσότερα με τα ζητήματα ασφαλείας, που δημιουργούν οι νέοι οικιακοί μας βοηθοί. Μία προσέγγιση, που ακούγεται αρκετά απλή, αφορά τον προγραμματισμό των ρομπότ κατά τέτοιο τρόπο, ώστε να αποφεύγουν εντελώς την επαφή με τους ανθρώπους. Αυτό, όμως, δεν είναι τόσο εύκολο όσο ακούγεται. Ο προγραμματισμός της αυτόνομης κίνησης ενός ρομπότ σε ένα ακατάστατο δωμάτιο είναι ήδη πολύ δύσκολος, χωρίς να λαμβάνει υπόψη του την παρουσία ανθρώπινων μελών στο δρόμο του.

Η ρύθμιση της συμπεριφοράς των ρομπότ θα γίνει ακόμη πιο δύσκολη στο μέλλον, καθώς θα διαθέτουν ολοένα και πιο προηγμένα συστήματα τεχνητής νοημοσύνης, ενσωματωμένα στο λογισμικό τους, όπως εξηγεί ο Μάρκο Βερούτζιο, καθηγητής ρομποτικής στο Ινστιτούτο Νοήμονος Αυτοματισμού στη Γένοβα της Ιταλίας. Ως αποτέλεσμα, η συμπεριφορά τους θα γίνει όλο και πιο απρόβλεπτη, καθώς θα έχουν την ικανότητα να «μαθαίνουν».

Υπάρχει και το θέμα των απρόβλεπτων αποτυχιών. Τί θα γίνει εάν ο κινητήρας ενός ρομπότ πάψει να λειτουργεί ή αν υποστεί βλάβη, την ώρα που σας σερβίρει καυτό καφέ ή όταν πραγματοποιεί επέμβαση ανοικτής καρδιάς σε ασθενή; Η τεχνολογία επιτρέπει βέβαια την τοποθέτηση αναπληρωματικών συστημάτων, όπως εξηγεί ο Ιάπωνας βετεράνος της ρομποτικής στο Πανεπιστήμιο του Τόκιο, Χιροτσίκα Ινούε. Αυτό, όμως, δεν εγγυάται το παραμικρό. «Ποσοστά ασφαλείας 100% είναι αδύνατα στην τεχνολογία», λέει ο Ινούε.

Νομικά προβλήματα

Τί γίνεται λοιπόν με τους τρεις Νόμους της Ρομποτικής του Ισαάκ Ασίμοφ; «Οι Νόμοι ήταν εργαλείο διήγησης και δεν αφορούσαν την πραγματικότητα», λέει ο δρ Ουίτμπι. Οι Νόμοι απευθύνονται άλλωστε σε μία κοινωνία, η οποία χρησιμοποιεί σκεπτόμενα ρομπότ, που δεν υπάρχουν σήμερα. Την ίδια ώρα, ο ίδιος ο Ασίμοφ βάσισε την υπόθεση της νουβέλας του στη δυσλειτουργία και την παραβίαση των τριών Νόμων, καθώς και στο πώς οι φαινομενικά απαραβίαστοι αυτοί Νόμοι μπορούσαν να έχουν απρόοπτες δυσάρεστες συνέπειες.

Ο δρ Ινούε εξηγεί ότι οι Νόμοι του Ασίμοφ εκφράζουν απλά την κοινή λογική, που εφαρμόζεται στην κατασκευή κάθε οικιακής και βιομηχανικής συσκευής. Κάθε τοστιέρα, μηχανή του γκαζόν και κινητό τηλέφωνο είναι σχεδιασμένο έτσι ώστε να ελαχιστοποιείται ο κίνδυνος τραυματισμού του χρήστη. Παρόλα αυτά, οι άνθρωποι συνεχίζουν να χάνουν νύχια, να υφίστανται ηλεκτροπληξίες και να πέφτουν από παράθυρα στην προσπάθειά τους να επιτύχουν καλύτερο σήμα.

"Η διασφάλιση της ασφαλούς λειτουργίας έχει μεγάλη σημασία», λέει ο Κόλιν Ανγκλ της εταιρίας iRobot, που έχει πουλήσει πάνω από 2 εκατομμύρια τεμάχια της ρομποτικής ηλεκτρικής σκούπας Roomba. Ο κ. Ανγκλ υποστηρίζει, όμως, ότι τα ρομπότ της εταιρίας του είναι πολύ πιο ασφαλή από πολλά δημοφιλή τηλεκατευθυνόμενα παιχνίδια. «Ενα τηλεκατευθυνόμενο αυτοκινητάκι, το οποίο κατευθύνεται από εξάχρονο παιδί, είναι πολύ πιο επικίνδυνο από ό,τι μία σκούπα Roomba. Εχουμε προσαρμόσει ειδικά λαστιχένια πόδια, κάτω από τη σκούπα, ώστε εάν την πατήσετε, να μην γλυστρήσει κάτω από τα πόδια σας», λέει ο κ. Ανγκλ.

Το θέμα της ασφάλειας των ρομπότ ίσως απασχολήσει στο άμεσο μέλλον και τα αμερικανικά αστικά δικαστήρια. «Όταν το πρώτο ρομπότ καθαριστής χαλιών ρουφήξει βρέφος μέσα στο μηχανισμό του, ποιος θα επωμισθεί την ευθύνη;», αναρωτιέται ο Τζον Χάλαμ, καθηγητής Νομικής του Πανεπιστημίου της Νότιας Δανίας στο Όντενζε. Εάν ένα ρομπότ θεωρείται αυτόνομο και ικανό να μαθαίνει, μπορεί ο δημιουργός του να θεωρηθεί υπεύθυνος για όλες του τις πράξεις; Η απάντηση στο ερώτημα αυτό είναι σήμερα «ΝΑΙ». Καθώς, όμως, τα ρομπότ γίνονται ολοένα και πιο περίπλοκα, η απάντηση στο ερώτημα θα πάψει να είναι τόσο ξεκάθαρη. «Καμία ασφαλιστική εταιρία δεν είναι σήμερα έτοιμη να ασφαλίσει ρομπότ», λέει ο κ. Ινούε.

Πηγή : The Economist / Καθημερινή
__________________
όταν γράφεται η ιστορία της ζωής σου,
μην αφήνεις κανέναν να κρατάει την πένα
Απάντηση με παράθεση
Απάντηση στο θέμα


Συνδεδεμένοι χρήστες που διαβάζουν αυτό το θέμα: 1 (0 μέλη και 1 επισκέπτες)
 
Εργαλεία Θεμάτων
Τρόποι εμφάνισης

Δικαιώματα - Επιλογές
You may not post new threads
You may not post replies
You may not post attachments
You may not edit your posts

BB code is σε λειτουργία
Τα Smilies είναι σε λειτουργία
Ο κώδικας [IMG] είναι σε λειτουργία
Ο κώδικας HTML είναι σε λειτουργία

Που θέλετε να σας πάμε;


Όλες οι ώρες είναι GMT +3. Η ώρα τώρα είναι 19:12.



Forum engine powered by : vBulletin Version 3.8.2
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.