Τα είδη των ρομπότ του διαδικτύου που επισκέπτονται τον ιστότοπο μας και πως να τα μπλοκάρεις
Από Λάζαρος Γεωργούλας
Χρήσιμες και δωρεάν πληροφορίες για τα διαδικτυακά bots 😁 και πως να τα αποτρέψεις από το να επισκεφθούν τον ιστότοπο σου. "Κατέβασε" εντελώς δωρεάν 3 ηλεκτρονικά βιβλία (PDF ebooks)!
1. Δωρεάν στρατηγική κέρδους
2. Οδηγός για νέες ιστοσελίδες
3. Βγάλε λεφτά με το bitcoin
Απλά βάλε το email σου στη παρακάτω φόρμα και θα λάβεις άμεσα τα 3 ebooks!
Μισώ το SPAM! Η διεύθυνση email σου είναι ασφαλής και δεν θα γνωστοποιηθεί ποτέ σε τρίτους! Αν ενδιαφέρεσαι, Μάθε περισσότερα για τα 3 ebooks...
Όταν ακούμε τη λέξη "ρομπότ" ο νους μας πάει στα κλασικά τρισδιάστατα ρομπότ με τεχνητή νοημοσύνη που είναι προγραμματισμένα να αντικαθιστούν τους ανθρώπους σε διάφορες εργασίες, σε εργοστάσια, μονάδες παραγωγής αλλά και στα σπίτια μας... Ωστόσο υπάρχουν και τα robots του διαδικτύου που επισκέπτονται καθημερινά τις ιστοσελίδες μας.
Σε αυτό το άρθρο θα μιλήσουμε για τα διαδικτυακά ρομπότ, θα δούμε τα είδη τους (καλά-κακά) και το αν έχουν υποσκελίσει τους ανθρώπους-επισκέπτες ιστοσελίδων. Επίσης θα μιλήσουμε για τους τρόπους με τους οποίους μπορούμε να κρατήσουμε μακριά αυτά τα ρομπότ ώστε να μην "τρώνε" πόρους από τον server μας... Καλή ανάγνωση.-
Τα διαδικτυακά ρομπότ (web robots ή web spiders ή web crawlers) είναι προγράμματα ή εφαρμογές λογισμικού που περιδιαβαίνουν το διαδίκτυο, επισκέπτονται ιστοσελίδες και πραγματοποιούν διάφορες αυτοματοποιημένες εργασίες. Τα ρομπότ συλλέγουν δεδομένα από τα διάφορα sites, τα καταγράφουν και τα αναλύουν με γρήγορες ταχύτητες και πάντως πολύ ταχύτερα από ότι θα μπορούσε να κάνει ένας άνθρωπος.
Για παράδειγμα το GoogleBot συλλέγει δεδομένα από όλες σχεδόν τις ιστοσελίδες του διαδικτύου και αποφασίζει σε ποιά θέση θα εμφανίζονται αυτές στα αποτελέσματα αναζήτησης του Google. Ένα άλλο παράδειγμα είναι το bot του facebook που αποφασίζει με τη βοήθεια τεχνητής νοημοσύνης ποιές ειδήσεις/δημοσιεύσεις θα βλέπει ο κάθε χρήστης όταν σκρολάρει στο facebook.
Τα ρομπότ (όπως και οι ιστοσελίδες) δεν είναι παρά κώδικας γραμμένος σε κάποια διαδικτυακή ή μη γλώσσα προγραμματισμού όπως η Perl, η Python, η C, η PHP κλπ. Οι δημιουργοί-προγραμματιστές των robots τα φτιάχνουν με τη βοήθεια των γλωσσών προγραμματισμού ώστε αυτά να εκτελούν διάφορες διεργασίες όπως το "σκανάρισμα" των περιεχομένων ενός site ή το ποστάρισμα αυτόματων σχολίων σε forums ή σε wordpress sites.
Οι δημιουργοί των robots δεν τα φτιάχνουν έχοντας μόνο το καλό στο νου τους. Με τις γλώσσες προγραμματισμού μπορείς να φτιάξεις robots που εκτελούν διάφορες "κακές" διεργασίες όπως η υποκλοπή δεδομένων χρηστών. Υπάρχουν hackers (λαμπρά μυαλά κατά τα άλλα) που δημιουργούν robots με στόχο να προκαλέσουν ένα σωρό προβλήματα στους ιδιοκτήτες ιστοσελίδων, σε εταιρίες ή σε κρατικούς οργανισμούς κλπ.
Για τον σκοπό αυτού του άρθρου θα χωρίσουμε τα robots σε δυο κύριες κατηγορίες: στα καλά και στα κακά ή αν θέλεις στα νόμιμα και στα παράνομα. Τα καλά είναι αυτά που πραγματοποιούν διάφορες νόμιμες διεργασίες, συνήθως επαναλαμβανόμενες, γλιτώνοντας από κόπο τους δημιουργούς τους και όχι μόνο. Τα κακά robots είναι αυτά που χρησιμοποιούνται από hackers για να πραγματοποιήσουν ένα σωρό παράνομες διεργασίες ή διεργασίες που προκαλούν προβλήματα σε τρίτους.
Ας δούμε μερικά είδη καλών robots:
Τα spiders των μηχανών αναζήτησης
Αυτά τα robots χρησιμοποιούνται από τις διάφορες μηχανές αναζήτησης (Google, Yahoo, Bing κλπ.) για να "σαρώνουν" το διαδίκτυο, να συλλέγουν διάφορα δεδομένα για τις ιστοσελίδες (περιεχόμενο, ηλικία, backlinks, χρόνο φόρτωσης κ.α.) και έπειτα να αποφασίζουν σε ποιά θέση στα αποτελέσματα αναζήτησης θα εμφανίζονται οι ιστοσελίδες. Όπως ανέφερα και πιο πάνω το πιο γνωστό τέτοιο robot είναι το GoogleBot (και φυσικά δεν είναι μόνο ένα άρα ας τα πούμε GoogleBots).
Robots αναζήτησης καλύτερης προσφοράς
Μια άλλη κατηγορία robots είναι αυτά που επισκέπτονται διάφορα sites με προσφορές, δημοπρασίες, εκπτώσεις κλπ. και αναζητούν και αναλύουν για παράδειγμα τις καλύτερες τιμές για κάποιο συγκεκριμένο προϊόν ή υπηρεσία και παρουσιάζουν τα αποτελέσματα τους σε τρίτες ιστοσελίδες. Ένα τέτοιο robot είναι αυτό του Trivago που αναζητά και παρουσιάζει τις καλύτερες τιμές για ξενοδοχεία σε όλο τον κόσμο.
Robots αναζήτησης ειδήσεων
Υπάρχει και η κατηγορία των bots που αναζητούν και παρέχουν τις τελευταίες ειδήσεις, ενημερώσεις για καιρικές συνθήκες, αθλητικές ειδήσεις, ισοτιμίες νομισμάτων κλπ. Μπορεί ένα τέτοιο robot να αναζητά ειδήσεις που μπορούν να επηρεάσουν νομισματικές ισοτιμίες ή την τιμή συγκεκριμένων αγαθών π.χ. μετεωρολογικές ειδήσεις που μπορεί να ρίξουν την τιμή κάποιου αγροτικού προϊόντος στις διεθνείς αγορές.
Ας δούμε και μερικές κατηγορίες κακών robots:
Τα Spam Robots
Αυτά τα ρομπότ μελετούν και προσπαθούν να υποβάλλουν αυτόματα και επανειλημμένα τις διάφορες φόρμες (online forms) που υπάρχουν στα sites (π.χ. φόρμες υποβολής σχολίων) προωθώντας (spam) διάφορες τρίτες ιστοσελίδες, εταιρίες ή προίόντα και υπηρεσίες. Όλοι όσοι ασχολούνται με το wordpress θα έχουν δεχτεί αυτοματοποιημένα σχόλια από spam bots. Τέτοια robots χρησιμοποιούνται και από κάποιες εμπορικές φίρμες για να συλλέγουν διευθύνσεις email ανυποψίαστων χρηστών και έπειτα να τους φλομώνουν με διαφημίσεις.
Τα Hacker Robots
Σε αυτή τη κατηγορία ανήκουν τα robots που "γράφονται" από hackers με στόχο να περιδιαβαίνουν το διαδίκτυο και να ανακαλύπτουν κενά ασφαλείας στα διάφορα sites ή σε διαδικτυακές εφαρμογές. Έπειτα οι hackers μπορούν να χρησιμοποιήσουν τις "τρύπες" για να πραγματοποιήσουν κακόβουλες ενέργειες.
Τα Botnets
Πρόκειται για συστήματα (zombie PCs) τα οποία "στήνουν" hackers με στόχο να εκτελέσουν τις διάφορες επιθέσεις τους σε δίκτυα Η/Υ ή συγκεκριμένες ιστοσελίδες π.χ. μια επίθεση Denial of Service (DDOS). Όταν ακούμε ότι κάποιοι hackers "έριξαν" μια ιστοσελίδα συνήθως σημαίνει ότι έκαναν επίθεση μέσα από συστήματα botnets.
Τα Download Robots
Σε αυτή τη κατηγορία ανήκουν τα robots που εκμεταλλευόμενα κενά ασφαλείας, παρεμβαίνουν ανάμεσα σε χρήστες και ιστοσελίδες προσπαθώντας να παραπλανήσουν έτσι ώστε οι χρήστες να "κατεβάσουν" μολυσμένες σελίδες και λογισμικό, το οποίο είναι πιθανό ο επισκέπτης ενός site να "κατεβάσει", να ανοίξει και να μολύνει τον Η/Υ του ή/και το δίκτυο του.
Υπάρχουν και άλλες κατηγορίες καλών και κακών διαδικτυακών ρομπότ. Φαίνεται ότι όποιος έχει γνώσεις γλωσσών προγραμματισμού και φαντασία, ανάλογα με το mentality του μπορεί να "γράψει" κώδικα και να φτιάξει ένα bot για να πραγματοποιήσει διάφορες διεργασίες (καλές ή κακές, νόμιμες ή παράνομες) στο διαδίκτυο.
Στην εποχή μας όσο κι αν μοιάζει παράξενο και σύμφωνα με μελέτες οι επισκέψεις από robots στις ιστοσελίδες μας ξεπερνούν τις επισκέψεις από ανθρώπους! Συγκεκριμένα μελέτη της εταιρίας Incapsula έδειξε ότι πάνω από το 50% των επισκέψεων σε ένα site προέρχονται από bots. Κάποια από αυτά θεωρείται ότι ωφελούν και κάποια (όπως τα spam bots) οτι δεν ωφελούν, ωστόσο όλα καταναλώνουν πόρους από τον server μας (CPU, RAM) και για αυτό η αύξηση των επισκέψεων τους μελετάται και έχει ανησυχήσει μια μερίδα ειδικών διαδικτύου.
Τρόποι αντιμετώπισης των bots
Πολλές φορές οι πολλές επισκέψεις από bots μπορεί να αυξάνουν τον χρόνο απόκρισης server και τον χρόνο φόρτωσης της ιστοσελίδας μας οπότε θα πρέπει να λάβουμε τα μέτρα μας απομονώνοντας κάποια ή όλα τα bots. Κάποια από αυτά όμως όπως το Googlebot είναι χρήσιμα και δεν υπάρχει λόγος να τα αποτρέπουμε από το να επισκέπτονται το site μας. Με τη βοήθεια του αρχείου robots.txt μπορείς να ορίσεις ποιά από τα bots των μηχανών αναζήτησης μπορούν να επισκέπτονται το site σου ακόμα και τις ώρες που μπορούν να πραγματοποιούνται οι επισκέψεις.
Ωστόσο πολλά κακόβουλα bots δεν λαμβάνουν καν υπόψιν τους το αρχείο robots.txt και το σταμάτημα τους πρέπει να γίνει με πιο δραστικά μέτρα όπως με χρήση του αρχείου .htaccess.
Υπάρχουν και εταιρίες (κυρίως για όσους διαθέτουν τα χρήματα) που μπορούν να επέμβουν στο θέμα των robots και να αποτρέψουν την πλειοψηφία αυτών από το να επισκέπτονται το site μας. Μια τέτοια εταιρία είναι η DataDome.
Πως να μπλοκάρεις τα bots
Παρακάτω παρουσιάζω έναν τρόπο για να αποτρέψεις συγκεκριμένα bots από το να επισκέπτονται τον ιστότοπο σου με βάση την IP τους. Ωστόσο, πρέπει να γνωρίζεις ότι τα bots είναι σαν λερναία ύδρα και οι δημιουργοί τους σκαρφίζονται ένα σωρό ευφάνταστους τρόπους ώστε τα bots τους να προσπερνούν τα εμπόδια που θέτουμε για να τα αποτρέψουμε από το να έχουν πρόσβαση στο site μας.
Η παρακάτω μέθοδος προτείνεται σε webmasters που έχουν μια κάποια εμπειρία με το αρχείο .htaccess και γενικά με τη διαχείριση ενός server. ΠΡΟΣΟΧΗ! Αν εφαρμόσεις λανθασμένα τη μέθοδο μπορεί να αποτρέψει ακόμα και ανθρώπους (ή και ολόκληρες χώρες!) από το να επισκεφθούν τον ιστότοπο σου. Για αυτό μελέτησε την μέθοδο με προσοχή και έπειτα κρινε αν μπορείς και αν πρέπει να την εφαρμόσεις...
Για να μπλοκάρεις ένα bot θα πρέπει να γνωρίζεις δυο πράγματα, την IP του bot ή το "User Agent String" που χρησιμοποιεί το bot. Για να βρεις αυτές τις πληροφορίες θα πρέπει να ελέγξεις τα access logs του server σου. Τα logs μπορείς να τα βρεις αν ψάξεις στο περιβάλλον διαχείρισης του server σου (π.χ. Plesk ή cPanel). Αν δεν ξέρεις πως να βρεις αυτά τα logs επικοινώνησε με τον παροχέα hosting του ιστότοπου σου.
Αφού ελέγξεις τα logs και εντοπίσεις κάποιο bot, κατέγραψε την διεύθυνση IP του ή/και το "User Agent String" του. Η διεύθυνση IP είναι μια σειρά από τέσσερις αριθμούς που χωρίζονται από τελείες (π.χ. 183.98.0.214). Το "User Agent String" είναι το όνομα του προγράμματος που χρησιμοποιείται για την πρόσβαση στο site σου (π.χ. το GoogleBot μπορεί να έχει το εξής "User Agent String": "Googlebot/2.1 (+http://www.google.com/bot.html)")
Πρέπει να γνωρίζεις (θα το πω ξανά) ότι η μάχη με τα bots είναι μια άνιση μάχη. Έτσι αν μπλοκάρεις ένα IP κάποιου bot δεν σημαίνει ότι θα ξεφορτωθείς αυτό το bot για πάντα. Ένα κακό robot μπορεί να έχει μολύνει τον Η/Υ ενός κοινού χρήστη και να χρησιμοποιεί την IP του ανυποψίαστου χρήστη. Έτσι αν μπλοκάρεις μια τέτοια IP μπορεί στην ουσια να μπλοκάρεις την διεύθυνση ενός ISP. Έπειτα αν ο ανυποψίαστος χρήστης αποσυνδεθεί από το δίκτυο, ο ISP μπορεί να αναθέσει την μπλοκαρισμένη IP σε κάποιον άλλον χρήστη. Όταν λοιπόν μπλοκάρεις μια τέτοια διεύθυνση IP στην ουσία μπορεί να μπλοκάρεις κανονικούς χρήστες και πιθανούς πελάτες.
Επιπλέον (όχι που δεν θα γίνονταν χειρότερο), πολλά κακά bots χρησιμοποιούν παραποιημένα "User Agent Strings" που αντιστοιχούν σε πραγματικούς browsers. Αυτό έχει ως αποτέλεσμα να μην μπορείς να καταλάβεις μέσω του access log αν μια επίσκεψη είναι από bot ή πραγματικό άνθρωπο. Προσοχή λοιπόν και στο μπλοκάρισμα των "User Agents" γιατί για παράδειγμα αν μπλοκάρεις το "User Agent" "Mozilla" μπορεί να μπλοκάρεις σχεδόν όλους τους ανθρώπους του πλανήτη γη!
Ωστόσο αν θέλεις να συνεχίσεις και έχεις εντοπίσει μια διεύθυνση IP ή/και το "User Agent String" που θέλεις να μπλοκάρεις θα πρέπει να επεξεργαστείς το αρχείο .htaccess του site σου.
Το αρχείο αυτό μπορεί να υπάρχει στο root folder (π.χ. στον φάκελο public_html ή httpdocs) ή μπορεί και να μην υπάρχει οπότε πρέπει να το δημιουργήσεις (π.χ. με το Σημειωματάριο ή Notepad των Windows). Σε σπάνιες περιπτώσεις μπορεί το αρχείο .htaccess να υπάρχει και να μην μπορείς να το δεις οπότε θα πρέπει να επικοινωνήσεις με τον παροχέα hosting ώστε να επιβεβαιώσει ή όχι την ύπαρξη του. Το αρχείο αυτό είναι σημαντικό και αν υπάρχει τότε σίγουρα δεν θέλεις να δημιουργήσεις ένα νέο και να αντικαταστήσεις το ήδη υπάρχον καθώς μπορεί να περιέχει σημαντικές ρυθμίσεις απαραίτητες για την λειτουργία του site σου. Αν υπάρχει θα πρέπει να προσθέσεις στα ήδη υπάρχονταν δεδομένα του.
Για να συνεχίσω θα υποθέσω ότι έχεις ήδη "κατεβάσει" το αρχείο .htaccess (αν υπάρχει) με τη βοήθεια ενός προγράμματος FTP ή μέσα από το Plesk ή το cPanel ή το έχεις δημιουργήσει με τη βοήθεια του Notepad (Σημειωματάριο) των Windows (Προσοχή μην επιχειρήσεις να το επεξεργαστείς ή να το δημιουργήσεις με το Word ή το Wordpad!)
Μπλοκάροντας μια συγκεκριμένη διεύθυνση IP
Αφού έχεις εντοπίσει μια IP που επιθυμείς να μπλοκάρεις (π.χ. 183.98.0.214) πρέπει να προσθέσεις τις παρακάτω γραμμές κώδικα στο αρχείο .htaccess σου. Αν το αρχείο έχει ήδη δεδομένα τότε πρέπει να γράψεις σε μια νέα γραμμή από κάτω από τα ήδη υπάρχοντα δεδομένα... Φυσικά μη ξεχάσεις να αλλάξεις τους αριθμούς του IP που δίνω στο παράδειγμα:
Deny from 183.98.0.214
Με το παραπάνω παράδειγμα όταν κάποιο bot (ή χρήστης) προσπαθήσει να επισκεφθεί τον ιστότοπο σου από την διεύθυνση IP που αναφέρεται, τότε δεν θα του επιτραπεί η πρόσβαση (θα δει το μήνυμα "Forbidden").
Αν θέλεις να μπλοκάρεις και άλλες IP τότε πρόσθεσε τις με τον ίδιο τρόπο όπως φαίνεται παρακάτω:
Deny from 183.98.0.214
Deny from 182.97.1.213
Deny from 184.96.0.201
Μπλοκάροντας συγκεκριμένο "User Agent"
Για να μπλοκάρεις κάποιο robot με βάση το "User Agent String" του, θα πρέπει να εντοπίσεις το τμήμα του string που είναι μοναδικό για το συγκεκριμένο bot. Αν π.χ. εντοπίσεις κάποιο robot με το εξής string "BadRobot/4.2 (+http://www.mydomain.com/robot.php)" και αποφασίσεις ότι το τμήμα "BadRobot" είναι μοναδικό για αυτό το robot τότε μπορείς να προσθέσεις τις παρακάτω γραμμές στο αρχείο .htaccess σου (Προσοχή, το τμήμα του string που θα επιλέξεις δεν πρέπει να έχει κενά, παύλες ή ειδικούς χαρακτήρες):
Order Deny,Allow
Deny from env=bad_bot
Φυσικά μη ξεχάσεις να αλλάξεις το "BadRobot" με το string που έχεις αποφασίσει ότι είναι μοναδικό για το συγκεκριμένο robot που επιθυμείς να μπλοκάρεις...
Έτσι αν το αρχείο .htaccess περιέχει την παραπάνω αναφορά οποιοδήποτε bot επισκεφθεί το site σου και έχει στο User Agent του τη λέξη "BadRobot" θα μπλοκαριστεί και θα δει το μήνυμα "Forbidden".
Για να μπλοκάρεις περισσότερους User Agents απλά πρόσθεσε τους στο αρχείο .htaccess ως εξής:
BrowserMatchNoCase SpamRobot bad_bot
BrowserMatchNoCase EvilRobot bad_bot
Order Deny,Allow
Deny from env=bad_bot
Όπως αντιλαμβάνεσαι τα strings "BadRobot", "SpamRobot", "EvilRobot" πρέπει να αντικατασταθούν από πραγματικά τμήματα του "User Agent String" του bot που θέλεις να μπλοκάρεις. Αμφιβάλλω αν υπάρχουν κακά robot που να έχουν αυτές τις λέξεις στο "User Agent String" τους καθώς οι hackers προσπαθούν να μασκαρέψουν τα strings ώστε να φαίνεται ότι πρόκειται για πραγματικούς χρήστες και όχι bots.
Αν επιθυμείς να μπλοκάρεις κάποια bots και μέσω IP και μέσω "User Agent String" τότε διαμόρφωσε κατάλληλα το αρχείο .htaccess σου όπως φαίνεται παρακάτω:
BrowserMatchNoCase SpamRobot bad_bot
BrowserMatchNoCase EvilRobot bad_bot
Order Deny,Allow
Deny from env=bad_bot
Deny from 183.98.0.214
Deny from 182.97.1.213
Deny from 184.96.0.201
Αφού τελειώσεις με την επεξεργασία ή δημιουργία του αρχείου .htaccess πρέπει να το "ανεβάσεις" στον server σου με τη βοήθεια ενός προγράμματος FTP ή μέσω Plesk ή cPanel κλπ. Αν το αρχείο δεν υπήρχε και το δημιουργείς από την αρχή με το "Σημειωματάριο" των Windows τότε πρέπει να αποθηκεύσεις το αρχείο ως ".htaccess" μαζί με τα εισαγωγικά γιατί αλλιώς το Σημειωματάριο θα προσθέσει κατάληξη (π.χ. .txt) στο αρχείο ενώ αυτό δεν έχει κατάληξη παρά μια τελεία μπροστά από το όνομα.
Με την παραπάνω μέθοδο και εφόσον αυτή εφαρμοστεί σωστά, μπορείς να μπλοκάρεις συγκεκριμένα robots από το να επισκέπτονται την ιστοσελίδα σου.
Ελπίζω να βρήκες ενδιαφέρον το άρθρο. Το θέμα/πρόβλημα με τα robots του διαδικτύου δεν είναι καινούργιο και έχει απασχολήσει εδώ και χρόνια τους ειδικούς. Ας μη ξεχνάμε ότι υπάρχουν πανέξυπνα καλά bots που ωφελούν το site μας όταν το επισκέπτονται. Αλλά βέβαια υπάρχουν και κάποιοι κακοί hackers που έχουν σαν στόχο να δημιουργούν προβλήματα και έτσι φτιάχνουν κακά bots. Εδώ και χρόνια οι επισκέψεις σε όλα τα sites εκεί έξω από τα διαδικτυακά robots ξεπερνούν τους ανθρώπινους επισκέπτες και κανείς δεν ξέρει αν αυτή η τάση θα συνεχιστεί.
Αν χρειάζεσαι κάποιο άτομο να συζητήσεις για διαδικτυακά θέματα, για την ιστοσελίδα σου ή για μια νέα επένδυση που αφορά το διαδίκτυο, για τεχνικές μάρκετινγκ κ.α. τότε μπορείς να νοικιάσεις λίγο από τον χρόνο μου και θα καθήσω με κάθε επαγγελματισμό να συζητήσω μαζί σου και να σου προσφέρω απλόχερα ώσες γνώσεις έχω για το διαδίκτυο. Παρακαλώ ρίξε μια ματιά στην υπηρεσία "Διαδικτυακός Σύμβουλος" του nextnet.gr και σε περιμένω στην άλλη άκρη της γραμμής.
Επίσης σου προτείνω να "κατεβάσεις" το συντομότερο, εντελώς δωρεάν τα 3 ηλεκτρονικά βιβλία μου σε μορφή PDF. Ίσως περιέχουν πληροφορίες που χρειάζεσαι και που θα προσθέσουν κάτι στις ήδη υπάρχουσες γνώσεις σου. Για να τα "κατεβάσεις" απλά πραγματοποίησε την 100% δωρεάν εγγραφή στις ενημερώσεις nextnet.gr και αμέσως μετά την ολοκλήρωση της εγγραφής θα λάβεις τους συνδέσμους (download links) για τα ηλεκτρονικά βιβλία. Βάλε το καλύτερο email σου στη παρακάτω φόρμα:
- Μισώ το SPAM!
- Η διεύθυνση email σου είναι ασφαλής.
- Μπορείς ανά πάσα στιγμή να διαγραφείς από τις ενημερώσεις.