Δευτέρα, 22 Σεπτεμβρίου 2025 17:09

Η δημοσκόπηση του Live Science για την Τεχνητή Νοημοσύνη: Το 46% ζητάει να τη σταματήσουμε τώρα, πριν να είναι πολύ αργά – Επιπλέον δικλείδες θέλει το 30%

Επιλέγουσα ή Συντάκτρια 
Βαθμολογήστε αυτό το άρθρο
(0 ψήφοι)

hellasjournalΠερισσότεροι από 1.700 αναγνώστες απάντησαν σε δημοσκόπηση του Live Science για την ανάπτυξη της τεχνητής νοημοσύνης (AI). 

Πρέπει η ανθρωπότητα να σταματήσει την τεχνητή νοημοσύνη (ΤΝ) προτού θέσει σε κίνδυνο την ίδια μας την επιβίωση; Καθώς η τεχνολογία συνεχίζει να μεταμορφώνει τις βιομηχανίες και την καθημερινή ζωή, η κοινή γνώμη διχάζεται έντονα σχετικά με το μέλλον της, ειδικά καθώς η προοπτική μοντέλων ΤΝ που μπορούν να φτάσουν στην ανθρώπινη νοημοσύνη γίνεται όλο και πιο εφικτή. 

 Τι κάνουμε όμως όταν η Τεχνητή Νοημοσύνη ξεπερνά την ανθρώπινη νοημοσύνη; Οι ειδικοί ονομάζουν αυτή τη στιγμή μοναδικότητα , ένα υποθετικό μελλοντικό γεγονός όπου η τεχνολογία υπερβαίνει την Τεχνητή Γενική Νοημοσύνη (AGI) και γίνεται μια υπερ-νοήμων οντότητα που μπορεί να αυτοβελτιώνεται αναδρομικά και να ξεφεύγει από τον ανθρώπινο έλεγχο.

Σε δημοσκόπηση του Live Science που δημοσιεύτηκε στις 5 Σεπτεμβρίου, οι αναγνώστες ρωτήθηκαν αν θα πρέπει να επιτραπεί στην Τεχνητή Νοημοσύνη να φτάσει σε αυτό το επίπεδο νοημοσύνης . Τη στιγμή της συγγραφής αυτού του κειμένου, απάντησαν 1.787 αναγνώστες.

Από αυτούς, το 46% πιστεύει ότι πρέπει να σταματήσουμε την ανάπτυξη της Τεχνητής Νοημοσύνης τώρα, επειδή οι κίνδυνοι να αποτελέσει απειλή είναι πολύ μεγάλοι, ενώ το 30% πιστεύει ότι θα πρέπει να καθυστερήσουμε την ανάπτυξή της μέχρι να αναπτυχθούν τα κατάλληλα μέτρα προστασίας. Μόνο το 9% των αναγνωστών πιστεύει ότι τα οφέλη αυτής της προηγμένης τεχνολογίας θα υπερτερούν των κινδύνων και το 5% πιστεύει ότι απλώς δεν έχει σημασία, επειδή δεν θα φτάσουμε ποτέ στην μοναδικότητα.

Πηγή Live Science

Οι περισσότεροι αναγνώστες στα σχόλια πιστεύουν ότι έχουμε ήδη ξεπεράσει τα όρια για να σκεφτούμε καν να καθυστερήσουμε την πορεία προς την υπερ-νοημοσύνη. «Είναι πολύ αργά, δόξα τω Θεώ που είμαι γριά και δεν θα ζήσω για να δω τα αποτελέσματα αυτής της καταστροφής», έγραψε η Kate Sarginson .

  • Η CeCe , εν τω μεταξύ, απάντησε: «[Νομίζω] ότι όλοι ξέρουν ότι δεν υπάρχει τρόπος να ξαναχώσουμε αυτό το τζίνι στο μπουκάλι».

Άλλοι θεώρησαν ότι οι φόβοι για την Τεχνητή Νοημοσύνη ήταν υπερβολικοί. Κάποιοι συνέκριναν τις επιφυλάξεις σχετικά με την Τεχνητή Νοημοσύνη με τους δημόσιους φόβους για τις τεχνολογικές αλλαγές του παρελθόντος. «Για κάθε νέα και αναδυόμενη τεχνολογία υπάρχουν οι επικριτές, οι επικριτές και συχνά οι τρελοί. Η Τεχνητή Νοημοσύνη δεν διαφέρει», ανέφερε το From the Pegg .

Αυτή η άποψη συμμερίστηκαν και ορισμένοι ακόλουθοι του Live Science στο Instagram. «Θα πιστεύατε ότι το ίδιο ερώτημα έθεσαν πολλοί όταν ο ηλεκτρισμός έκανε την εμφάνισή του για πρώτη φορά; Οι άνθρωποι τον φοβόντουσαν πολύ και έκαναν κάθε είδους δυσοίωνες προβλέψεις. Οι περισσότερες από τις οποίες έχουν επαληθευτεί», έγραψε ο alexmermaidtales .

Άλλοι τόνισαν την πολυπλοκότητα του ζητήματος. «Είναι ένας διεθνής ανταγωνισμός εξοπλισμών και η γνώση είναι εκεί έξω. Δεν υπάρχει καλός τρόπος να τον σταματήσουμε. Αλλά πρέπει να είμαστε προσεκτικοί ακόμη και μήπως η Τεχνητή Νοημοσύνη απλώς μας παραγκωνίσει (εκατομμύρια ή δισεκατομμύρια πράκτορες Τεχνητής Νοημοσύνης θα μπορούσαν να αποτελέσουν έναν τεράστιο κίνδυνο εκτοπισμού για τους ανθρώπους, ακόμη και αν η Τεχνητή Νοημοσύνη δεν έχει ξεπεράσει την ανθρώπινη νοημοσύνη ή δεν έχει φτάσει την Τεχνητή Νοημοσύνη)», έγραψε ο 3jaredsjones3 .

«Οι διασφαλίσεις είναι απαραίτητες καθώς εταιρείες όπως η Nvidia επιδιώκουν να αντικαταστήσουν όλο το εργατικό δυναμικό τους με Τεχνητή Νοημοσύνη. Ωστόσο, τα οφέλη για την επιστήμη, την υγεία, την παραγωγή τροφίμων, την κλιματική αλλαγή, την τεχνολογία, την αποδοτικότητα και άλλους βασικούς στόχους που επιφέρει η Τεχνητή Νοημοσύνη θα μπορούσαν να μετριάσουν μέρος του προβλήματος. Είναι ένα δίκοπο μαχαίρι με εξαιρετικά υψηλά πιθανά οφέλη, αλλά ακόμη υψηλότερους κινδύνους», συνεχίζει το σχόλιο.

Ένα σχόλιο πρότεινε ρυθμιστικές προσεγγίσεις αντί να σταματήσει εντελώς την Τεχνητή Νοημοσύνη. Η Isopropyl πρότεινε: «Επιβολή βαριάς φορολογίας στα LLM [Μεγάλα Γλωσσικά Μοντέλα] κλειστού βάρους, τόσο στην εκπαίδευση όσο και στην εξαγωγή συμπερασμάτων, και καμία αξίωση πνευματικών δικαιωμάτων επί των αποτελεσμάτων. Επίσης, επιβολή προοδευτικού φόρου στην εκπαίδευση μεγαλύτερων μοντέλων, με κλιμάκωση με ευκολία ανάπτυξης σε καταναλωτικό υλικό, όχι σε Υπολογιστική Υψηλής Απόδοσης [ΥΠΥ]».

Αντιθέτως, πρότειναν ότι τα μικρότερα, εξειδικευμένα LLM μπορούν να διαχειρίζονται από τους ίδιους τους καταναλωτές, εκτός του εταιρικού ελέγχου, για να «βοηθήσουν το ευρύτερο κοινό να αναπτύξει πιο υγιείς σχέσεις με την Τεχνητή Νοημοσύνη».

«Αυτές είναι μερικές καλές ιδέες. Η μετατόπιση των κινήτρων από την επιδίωξη της Τεχνητής Νοημοσύνης (AGI) στην προσπάθεια να κάνουμε αυτό που ήδη έχουμε πιο εύχρηστο θα ήταν εξαιρετική», απάντησε ο 3jaredsjones3 .

 

Με πληροφορίες από Live Science

Πηγή: /hellasjournal.com

Προσθήκη νέου σχολίου

Κωδικός ασφαλείας
Ανανέωση