Στο χτεσινό, μεγάλο iPhone event, η Apple, εκτός από τις νέες της συσκευές, παρουσίασε ένα ενδιαφέρον χαρακτηριστικό, το οποίο ουσιαστικά αποτελεί την απάντηση στο δημοφιλές Google Lens. Πρόκειται για το νέο feature Visual Intelligence που συνοδεύει τοiPhone 16, και βοηθά τους χρήστες να αλληλοεπιδρούν με το περιβάλλον με έναν εναλλακτικό τρόπο.
Η νέα λειτουργία ενεργοποιείται μέσω ενός νέου, touch-sensitive button, που βρίσκεται στη δεξιά πλευρά της συσκευής και ονομάζεται “Camera Control”. Με ένα κλικ, η Visual Intelligence μπορεί να αναγνωρίσει αντικείμενα, να παρέχει πληροφορίες και να προσφέρει ενέργειες βάσει αυτού που στοχεύετε. Για παράδειγμα, αν στοχεύσετε ένα εστιατόριο, θα εμφανιστούν μενού, ώρες λειτουργίας ή αξιολογήσεις, ενώ η φωτογράφιση ενός φυλλαδίου εκδήλωσης μπορεί να το προσθέσει απευθείας στο ημερολόγιό σας. Εστιάστε σε ένα σκύλο για να αναγνωρίσετε τη ράτσα του ή κάντε κλικ σε ένα προϊόν για να βρείτε πού μπορείτε να το αγοράσετε online.
Αργότερα φέτος, το “Camera Control” θα λειτουργεί και ως πύλη σε third-party tools με συγκεκριμένη τεχνογνωσία. Σύμφωνα με το δελτίο τύπου της Apple, οι χρήστες θα μπορούν, για παράδειγμα, να αξιοποιούν την Google για αναζητήσεις προϊόντων ή να χρησιμοποιούν το ChatGPT για επίλυση προβλημάτων, διατηρώντας πάντα τον έλεγχο του πότε και πώς έχουν πρόσβαση σε αυτά τα εργαλεία και τι πληροφορίες μοιράζονται. Η Apple τονίζει ότι η λειτουργία έχει σχεδιαστεί με γνώμονα την ιδιωτικότητα, διασφαλίζοντας ότι η εταιρεία δεν έχει πρόσβαση στις συγκεκριμένες ενέργειες που πραγματοποιούν οι χρήστες.
Η Apple υποστηρίζει ότι η Visual Intelligence διατηρεί την ιδιωτικότητα των χρηστών επεξεργάζοντας τα δεδομένα στη συσκευή, εξασφαλίζοντας ότι η εταιρεία δεν γνωρίζει σε τι ακριβώς κάνατε κλικ.