Δευτέρα 27 Απριλίου 2026

Είναι αλλιώς να σε σκοτώνουν με την βοήθεια της τεχνητής νοημοσύνης, αισθάνεσαι μέρος της προόδου (!!!)

Ο άνθρωπος ξεκίνησε να πολεμάει με τα χέρια, μετά έπιασε ξύλα και πέτρες, έφτιαξε τόξα, ακόντια και σπαθιά, μετά πιστόλια και κανόνια, μετά αεροπλάνα και βόμβες και σήμερα, στο ανώτατο ως τώρα επιστημονικό επίπεδο του, επιδιώκει να πολεμάει με προγράμματα τεχνητής νοημοσύνης.

Αν ζούσε αυτός που είπε το γνωστό ρητό "Δεν ξέρω με τι όπλα θα γίνει ο 3ος παγκόσμιος πόλεμος, αλλά ο 4ος θα γίνει με ξύλα και πέτρες", σίγουρα δεν θα ξεκινούσε την πρότασή του με την φράση "δεν ξέρω", γιατί είναι προφανές ότι ο 3ος παγκόσμιος θα γίνει με τα όπλα της τεχνητής νοημοσύνης (χειρισμός, αποφάσεις, λήψη δεδομένων, ανθρωποειδή, drones). Οι πόλεμοι λειτουργούν σ’ ένα περιβάλλον σφαγείου, η ηθική και η ανθρωπινότητα δοκιμάζονται και τελικά συνθλίβονται κάτω από τις πιέσεις της εξουσίας, όπου ο άνθρωπος αποδομείται σε πολεμική μηχανή και συγχρόνως μπορεί να εξολοθρεύσει και να εξολοθρευθεί. Με την τεχνητή νοημοσύνη στο πεδίο του πολέμου όλα τα παραπάνω αυξάνονται σε υπερθετικό βαθμό, καθώς η απόσταση μεταξύ ζωής και θανάτου μικραίνει αφού η «αποτελεσματικότητα» του στόχου μεγαλώνει. Η τεχνητή νοημοσύνη και γενικά η προηγμένη πολεμική τεχνολογία «παρεμβάλλεται» μεταξύ της ζωής και του θανάτου, διαλύοντας ακόμα και τα τελευταία ψήγματα ανθρωπινότητας που μπορεί να επιβιώνουν σ’ ένα πολεμικό πεδίο, δημιουργώντας ένα πλήρως αποπροσωποποιημένο πεδίο θανάτου.

Η "τυφλή" εμπιστοσύνη στην τεχνητή νοημοσύνη

Ο αμερικανικός στρατός κατά τη διάρκεια της επίθεσής του στο Ιράν, χρησιμοποιεί το Claude, ένα γλωσσικό μοντέλο της Anthropic για ανάλυση πληροφοριών, επιλογή και ταυτοποίηση στόχων, προσομοίωση σεναρίων μάχης και εκτίμηση «παράπλευρων» απωλειών. Σε τέσσερις μέρες το Πεντάγωνο ανακοίνωσε ότι έπληξε 2.000 στόχους, όταν σε εξάμηνες πολεμικές επιχειρήσεις στο Ιράκ και στη Συρία ενάντια στον ISIS είχαν πληγεί επίσης 2.000 στόχοι. Οπότε η μαζικότητα των στόχων με τη χρήση τεχνητής νοημοσύνης έχει πάει σε άλλο επίπεδο! Το Claude δεν εκτέλεσε την επίθεση μόνο του και αυτό ήταν ένα σημείο προστριβής μεταξύ του Τραμπ και της Anthropic, αλλά ήταν εργαλείο που βοήθησε το επιτελείο να πάρει αποφάσεις γρήγορα και με μεγαλύτερη ακρίβεια. Αλλά τελικά αυτό μικρή σημασία έχει, καθώς οι αποφάσεις που παίρνονται σ’ ένα πολεμικό πεδίο συνήθως είναι τόσο πιεσμένες που ο άνθρωπος θα προτιμήσει και θα δεχτεί τα δεδομένα της τεχνητής νοημοσύνης, παρά τα δικά του. Έτσι, η ταχύτητα γίνεται πιο κρίσιμη από την απόλυτη ακρίβεια και ο άνθρωπος συχνά προτιμά να εμπιστευτεί την τεχνητή νοημοσύνη για γρήγορες αποφάσεις, παρά να σταθεί κριτικά και να χάσει πολύτιμο χρόνο, ακόμα κι αν ξέρει ότι η τεχνητή νοημοσύνη μπορεί να κάνει «λάθη», όσο μπορεί να σταθεί ο όρος «λάθος» σε ένα πολεμικό πεδίο που είναι ως επί το πλείστον λάθος. Επίσης, κανένας άνθρωπος δεν μπορεί να διερευνήσει τους αμέτρητους υπολογισμούς μιας τεχνητής νοημοσύνης, πόσο μάλιστα σ’ ένα πεδίο πολέμου.

Απλά, λοιπόν, ο άνθρωπος θα δώσει την ευθύνη στην τεχνητή νοημοσύνη και το κρίμα στο λαιμό της και ας τιμωρηθεί ο αλγόριθμος για τα βομβαρδισμένα σχολεία και νοσοκομεία!  Ένα παράδειγμα της παραπάνω θέσης είναι ο Ισραηλινός IDF στις δολοφονικές επιχειρήσεις του στην Γάζα, όπου χρησιμοποίησε το Lavender (τεχνητή νοημοσύνη που αναλύει δεδομένα από τηλέφωνα, social media, κινήσεις, επικοινωνίες) για να δημιουργεί «λίστες στόχων» με δεκάδες χιλιάδες ονόματα. Ένα 10% των στόχων ήταν «λάθος». Οι αξιωματικοί συνήθως απλά έλεγχαν μόνο αν είναι άντρας και πατούσαν έγκριση.[1] Οι ίδιοι οι στρατιώτες που το χρησιμοποιούσαν δήλωσαν: «Το αντιμετωπίζαμε σαν ανθρώπινη απόφαση», ενώ ένας ανώτερος αξιωματικός ανέφερε πως: «Είχε αποδείξει τον εαυτό του… Έχει κάτι το στατιστικό που σε βάζει σε νόρμα. Εμπιστεύομαι περισσότερο το μηχάνημα παρά έναν στρατιώτη που έχασε φίλο του χθες».[2] Με αυτό τον τρόπο χιλιάδες άμαχοι σκοτώθηκαν χαρακτηριζόμενοι ως «παράπλευρες απώλειες» επειδή η ταχύτητα και η μαζικότητα ήταν προτεραιότητα. Το ίδιο έγινε και με το Gospel (άλλη τεχνητή νοημοσύνη για επιλογή κτιρίων και στόχων) και παρόμοια συστήματα στην Ουκρανία. Τελικά ο άνθρωπος προτιμά την ταχύτητα της τεχνητής νοημοσύνης σ’ ένα πεδίο που θα κατακλιστεί από φόβο, που μπορεί να αλλάζει κάθε δευτερόλεπτο και που παίζεται η ζωή του.

Ο "γάμος" της Anthropic με τον Τραμπ και ένα "διαζύγιο" που δεν ήρθε ποτέ

Τον Ιούνιο του 2024, η Anthropic γίνεται η πρώτη εταιρεία τεχνητής νοημοσύνης που εγκαθιστά το Claude στο Πεντάγωνο μέσω της Palantir. Το Claude χρησιμοποιείται ευρέως για συλλογή και ανάλυση δεδομένων, προσομοιώσεις μαχών, επιλογή στόχων, cyber κλπ. Η Anthropic εγκατέστησε το πρόγραμμα με περιορισμούς στις δυνατότητες μαζικής εσωτερικής παρακολούθησης Αμερικανών και στα πλήρως αυτόνομα όπλα. Σ’ αυτό το σημείο να σημειώσουμε ότι η Anthropic παρουσιάζεται σαν εταιρεία με κοινωνικό σκοπό –να αναπτύσσει τεχνητή νοημοσύνη ωφέλιμη για την ανθρωπότητα(!), δίνοντας έμφαση στην ασφάλεια και την ηθική, κάτι εντελώς υποκριτικό αφού εμπλέκεται σε πολέμους. Η άρνησή της να ξεκλειδώσει παραπάνω δυνατότητες στο Πεντάγωνο οφείλεται στο γεγονός ότι το λογισμικό της δεν είναι ακόμα τόσο αξιόπιστο και όχι γιατί αρνείται τον πόλεμο ή ότι την εταιρεία την διοικούν «ριζοσπάστες αριστεροί» που αποτελούν «εθνικό κίνδυνο», όπως ανέφερε ο Τραμπ!

Τον Ιανουάριο-Φεβρουάριο 2026 το Πεντάγωνο ζητά νέο συμβόλαιο, χωρίς τους περιορισμούς του αρχικού συμβολαίου, κάτι που η Anthropic αρνείται και το Πεντάγωνο δίνει τελεσίγραφο στην Anthropic να αφαιρέσει τους περιορισμούς μέχρι την Παρασκευή 27 Φεβρουαρίου. Το τελεσίγραφο περνάει και ο Τραμπ διατάζει άμεση διακοπή χρήσης του Claude σε όλες τις ομοσπονδιακές υπηρεσίες, κάτι που έγινε μόνο στα λόγια, αφού λίγες ώρες μετά, έγινε η επίθεση των ΗΠΑ και του Ισραήλ στο Ιράν, με τον στρατό να χρησιμοποιεί κανονικά το Claude για ανάλυση πληροφοριών, ταυτοποίηση και επιλογή στόχων και προσομοιώσεις. Για το λόγο αυτό το Ιράν αντεπιτέθηκε με πυραύλους σε data centers της Amazon στα ΗΑΕ και το Μπαχρέιν, όπου τρέχει μεγάλο μέρος του Claude, με αποτέλεσμα να βγει εκτός για πολλούς χρήστες παγκοσμίως για ώρες.

Η επένδυση των μεγάλων εταιρειών τεχνητής νοημοσύνης στον πόλεμο

Δεν είναι όμως πρώτη φορά που χρησιμοποιείται προηγμένη τεχνογνωσία τεχνητής νοημοσύνης σε πολεμικά πεδία. Ήδη, από το 2017-2019 η Google συνεργάστηκε με το Πεντάγωνο των ΗΠΑ στο Project Maven, όπου χρησιμοποίησε AI για την ανάλυση βίντεο από drones σε επιχειρήσεις στο Ιράκ και το Αφγανιστάν. Το AI εντόπιζε στόχους και τους ταυτοποιούσε αυξάνοντας την ακρίβεια και τον αριθμό των επιθέσεων. Η απόσυρση της Google το 2019 έγινε μετά από διαμαρτυρίες χιλιάδων εργαζομένων.

Μια άλλη περίπτωση είναι αυτή της Palantir,η οποία έχει μακροχρόνια συνεργασία με τον αμερικανικό στρατό και συμβόλαια δισεκατομμυρίων με το Πεντάγωνο. Το λογισμικό ανάλυσης δεδομένων ξεκίνησε το 2008 σε επιχειρήσεις στη Συρία και το Ιράκ, βοηθώντας σε πρόβλεψη απειλών και λήψη αποφάσεων σε πραγματικό χρόνο.

Η Starlink της SpaceX του Elon Musk παρέχει δορυφορικό διαδίκτυο σε ουκρανικούς στρατιώτες, επιτρέποντας επικοινωνίες, επικοινωνία με drones σε περιοχές χωρίς υποδομές. Χρησιμοποιείται σε επιθέσεις κατά ρωσικών δυνάμεων. Έτσι, ένας από τους πιο πλούσιους ανθρώπους στον κόσμο μπορεί να επηρεάσει την έκβαση των συγκρούσεων.

Η Microsoft έχει συμβόλαιο (αξίας 10 δις δολαρίων) για cloud υποδομές στο Πεντάγωνο, και χρήση σε πολεμικές επιχειρήσεις, όπως στην Ουκρανία και το Αφγανιστάν, για αποθήκευση δεδομένων και AI ανάλυση. Επίσης, τα HoloLens γυαλιά επαυξημένης πραγματικότητας χρησιμοποιούνται για εκπαίδευση και πραγματικές μάχες.

Η Amazon παρέχει cloud υπηρεσίες για αποθήκευση και ταξινόμηση δεδομένων και AI εργαλεία, χρησιμοποιούμενα σε επιχειρήσεις drones σε Ιράκ, Συρία και Ουκρανία. Με τα παραπάνω μπορεί να διαπιστωθεί ότι μεγάλες εταιρείες,καθώς και νέες ανερχόμενες οι οποίες με διάφορους τρόπους υπάρχουν στην καθημερινότητα των εξουσιαζόμενων για καθημερινή απλή χρήση, επενδύουν σε πολέμους, παίζουν κρίσιμο ρόλο στην εξέλιξή τους, πλουτίζουν μέσω αυτών και βυθίζουν στην δυστυχία και στον θάνατο εξουσιαζόμενους που βρίσκονται σε πολεμικά πεδία.

 Η μαζική "πρόβα" θανάτου της τεχνητής νοημοσύνης στη Γάζα

Οι πολεμικές επιχειρήσεις του Ισραήλ στην Γάζα ήταν μια μαζική «πρόβα» για τις δυνατότητες της τεχνητής νοημοσύνης γι’ αυτό που βλέπουμε σήμερα στον πόλεμο Ιράν-ΗΠΑ-Ισραήλ με δεκάδες χιλιάδες νεκρούς  και για όποιον μελλοντικό πόλεμο. Η Amazon παρέχει cloud υπηρεσίες μέσω του Project Nimbus (με συμβόλαιο 1.2 δις δολάρια από το 2021, μαζί με την Google), που χρησιμοποιούνται για μαζική αποθήκευση δεδομένων επιτήρησης στη Γάζα. Σ’ αυτά συμπεριλαμβάνονται δισεκατομμύρια ηχογραφήσεις τηλεφωνικών κλήσεων και πληροφοριών για σχεδόν όλους τους κατοίκους της Γάζας. Αυτά τα δεδομένα κατευθύνουν αεροπορικές επιθέσεις, παρέχοντας συμπληρωματικές πληροφορίες για στόχους, συχνά με απώλειες αμάχων.

Η Google παρέχει cloud και υπηρεσίες τεχνητής νοημοσύνης, όπως το Vertex AI και το Gemini,καθώς και συστήματα αναγνώρισης προσώπων, για επιτήρηση και ανάλυση δεδομένων στη Γάζα. Αυτά χρησιμοποιούνται σε συστήματα τεχνητής νοημοσύνης, όπως το «Lavender» και το «Gospel», για ταυτοποίηση στόχων, επεξεργασία ομιλίας και επιχειρήσεις, ενισχύοντας επιχειρήσεις βομβαρδισμών και επιδρομών.

Η Microsoft παρέχει cloud και υπηρεσίες τεχνητής νοημοσύνης, συμπεριλαμβανομένων μοντέλων, όπως GPT-4 για μεταγραφή και μετάφραση από αραβικά και ανάλυση δεδομένων. Χρησιμοποιούνται για μαζική επιτήρηση τηλεφωνημάτων, μηνυμάτων και συμπεριφορών στη Γάζα, βοηθώντας σε γρήγορη ταυτοποίηση στόχων. Η χρήση τους εκτοξεύτηκε 200 φορές μετά την 7 Οκτωβρίου 2023, ενώ έχουν συνδεθεί με λανθασμένες στοχεύσεις που προκάλεσαν απώλειες αμάχων.

Η Palantir  παρέχει εργαλεία τεχνητής νοημοσύνης για ανάλυση δεδομένων και επιλογή στόχευσης στη Γάζα.

Ο πόλεμος και οι στρατιωτικές επιχειρήσεις είναι ο δοκιμαστικός σωλήνας της τεχνολογικής προόδου και της επιστήμης. Από τα χημικά όπλα της Πρώτης Παγκόσμιας Ανθρωποσφαγής, τα πειράματα μαζικών θανατώσεων και τις πυρηνικές βόμβες της Δεύτερης Παγκόσμιας Ανθρωποσφαγής, η επιστήμη και η τεχνολογική πρόοδος, παρ’ ότι ευαγγελίζονται το αντίθετο, εξαφανίζουν σε κάθε στρατιωτική και πολεμική επιχείρηση κομμάτι-κομμάτι την ανθρωπινότητα, αφού είναι εκεί για να δώσουν τα φώτα τους στο μακέλεμα. Σήμερα, με την τεχνητή νοημοσύνη, ο στρατιώτης παύει απέναντι του να βλέπει πρόσωπο, να βλέπει άνθρωπο και είναι «αντιμέτωπος» μ’ έναν αλγόριθμο και έτσι η απόσταση της ζωής και του θανάτου μεγαλώνει τόσο που δεν έχει σημασία και η ευθύνη μικραίνει και μετατοπίζεται στον απρόσωπο και δίχως αίμα αλγόριθμο.

Η επιστήμη από μόνη της, είναι το αποτέλεσμα της περιέργειας και της οξυδέρκειας του ανθρώπου ως είδος, από το να φτιάξει ξύλινα και λίθινα εργαλεία, μέχρι να μάθει να «ακούει» το σώμα του και να το παρατηρεί και μέσα από την εμπειρία του πόνου να προσπαθεί να το γιατρέψει μεταβιβάζοντας την γνώση στο μέλλον και αναπτύσσοντας καλύτερες θεραπείες. Ως εδώ όλα καλά, μόνο που όταν εμφανίστηκε ο παράγοντας της εξουσίας τότε τα παραπάνω έγιναν και όπλα και άπαξ και η εξουσία «θρονιάστηκε» στην ουσία του ανθρώπου απομυζώντας την, τότε όποια πρόοδο και εξέλιξη είχε η επιστήμη, άλλη τόση και περισσότερη έχει και η εξουσία. Γι’ αυτό, η άρνηση κάθε εξουσίας δεν είναι ένα επιφανειακό μότο, μια «παιδική ασθένεια», αλλά το πρώτο μας μέλημα, ώστε ατομικά και συλλογικά να μπορέσουμε να βαδίσουμε σ’ έναν ανεξούσιο κόσμο, αισθανόμενοι για πρώτη φορά ότι περπατάμε ελάχιστα χιλιοστά πάνω απ’ το έδαφος, χωρίς το βάρος των προσωπικών και συλλογικών μας αγκυρών.

Ελευθερόκοκκος


[1]Κάποιοι λένε ότι η Τεχνητή Νοημοσύνη θα κάνει τον πόλεμο πιο ανθρώπινο. Ο πόλεμος του Ισραήλ στη Γάζα δείχνει το αντίθετο:  https://www.vox.com/future-perfect/24151437/ai-israel-gaza-war-hamas-artificial-intelligence

[2] «Lavender»: Η μηχανή τεχνητής νοημοσύνης που κατευθύνει τους βομβαρδισμούς του Ισραήλ στη Γάζα: https://www.972mag.com/lavender-ai-israeli-army-gaza/

Δημοσιεύθηκε στην ΔΙΑΔΡΟΜΗ ΕΛΕΥΘΕΡΙΑΣ, φ.269, Απρίλιος 2026

πηγή 

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Αποποίηση ευθυνών: Το ιστολόγιο δεν παρέχει συμβουλές, προτροπές και καθοδήγηση.
Εισέρχεστε & εξέρχεστε με δική σας ευθύνη :)