• lgsp@feddit.it
    link
    fedilink
    arrow-up
    5
    ·
    edit-2
    4 months ago

    un modo semplice non c’è, infatti questo mito è popolare proprio perchè è semplice. Forse il modo migliore è spiegare cosa probabilmente succede. Le prime due cose che mi vengono in mente:

    • se abbiamo parlaato di qualcosa e ci compare per caso la pubblicità di quella cosa lo notiamo subito (magari ci era comparsa il giorno prima e non l’avevamo notato)
    • banalmente abbiamo fatto qualche ricerca e ce ne siamo dimenticati
    • se una persona che google o facebook considerano vicina a noi cerca quella cosa, gli algoritmi potrebbero pensare di offrirla anche a noi

    Un articolo de ilpost a proposito https://www.ilpost.it/2021/05/27/facebook-microfono-smartphone-pubblicita/

    • Krusty@feddit.itOPM
      link
      fedilink
      arrow-up
      6
      ·
      1 year ago

      D’accordo su tutto, aggiungerei soltanto che se invece si ha in casa uno smart speaker tipo Alexa allora sì, c’è più probabilità che sia stata effettivamente sentita qualche informazione

      • Rinox@feddit.it
        link
        fedilink
        arrow-up
        4
        arrow-down
        1
        ·
        1 year ago

        beh, se hai un android, allora Google continua a sentire tutto comunque, aspettando solo che tu dica “hey google”. Se non sbaglio c’è anche un modo per riascoltare tutte le volte che ci parli usando Hey Google. Poi immagino che non registrino tutto quello che dici, ma secondo me delle parole chiave le ascolta eccome e le usa per le pubblicità.

        Se ci pensi già deve stare in ascolto per sentire Hey Google, aggiungere un piccolo database di un migliaio di termini da usare come trigger e “chiamare casa” quando uno di questi viene detto non mi pare la cosa più difficile del mondo da implementare per Google.

        • heijenoort@feddit.it
          link
          fedilink
          arrow-up
          3
          ·
          1 year ago

          Nì. Avere un aggeggio che resta perennemente in ascolto, registra, estrae parole chiave, analizza, ecc. sarebbe mostruosamente costoso (in tutti i sensi) oltre che inefficiente. Quello che succede negli smartphone, in parole povere, è che esiste un modulo a bassissimo consumo altamente specializzato che fa solo una cosa: ascolta se viene detta la parola magica e basta: non appena la parola è riconosciuta allora viene attivato l’assistente vero e proprio (e questo sì, prende la voce, la manda sui server dove viene analizzata ecc. ecc.)

          • Rinox@feddit.it
            link
            fedilink
            arrow-up
            3
            ·
            1 year ago

            Si, ma chi ti dice che questo modulo sia all’ascolto esclusivamente della parola magica, e non anche di un altro set di parole predefinite? Ad esempio se non ricordo male l’assistente usa già due parole magiche, sia “ok Google” che “hey Google”. Basterebbe un piccolo dizionario di parole che quando vengono dette, vengono salvate da qualche parte e poi ogni tanto mandate a Google per aumentare la precisione degli annunci.

            Poi ripeto, con ogni probabilità non succede, ma tecnicamente non mi pare impossibile.

          • Novman@feddit.it
            link
            fedilink
            arrow-up
            2
            ·
            edit-2
            1 year ago

            Tecnicamente con un processore dedicato non è così difficile. Il microfono è sempre accesso, automaticamente fai speechtotext, che è quello che fa per riconoscere la parola chiave, poi, se quello che dici rientra in un dizionario limitato, invia il tutto in maniera asincrona quando la rete è disponibile ( il testo occupa pochissima banda ) . Del resto si è scoperto che Alexa mandava registrazioni in giro. Si è scoperto che pure certi chip mandano dati in giro ( tramite analisi del traffico ) dati anche senza android presente. I dati che vengono spediti sono sempre crittati. Tecnicamente non è impossibile.

            Edit: se si fa speechtotext di tutto il parlato che viene intercettato dal microfono si ottengono al max pochi kb al giorno, praticamente si possono accodare a qualsiasi processo e manco ce ne si accorge.

            Edit2: i chip esistono dal 2017

            https://news.mit.edu/2017/low-power-chip-speech-recognition-electronics-0213

        • Krusty@feddit.itOPM
          link
          fedilink
          arrow-up
          3
          ·
          1 year ago

          Non so, mi pare che questa cosa sia stata smentita da diverse analisi. Certo non è difficile per Google, ma il fatto è che probabilmente non ne vale proprio la pena fare una cosa del genere, visto che le informazioni sulla persona e i suoi comportamenti sono già molto profondi anche senza dati audio

          • quasimagia@feddit.it
            link
            fedilink
            arrow-up
            4
            ·
            1 year ago

            Non sarebbe difficile da fare ma, semplicemente, non serve. Non ne hanno bisogno e ascoltare e monitorare TUTTE le conversazioni che avvengono vicino a tutti gli android del mondo avrebbe un costo semplicemente troppo alto, quando puoi ottenere le stesse informazioni in modo più semplice

          • Rinox@feddit.it
            link
            fedilink
            arrow-up
            3
            ·
            1 year ago

            Probabilmente hai ragione. Comunque tecnicamente parlando mi pare estremamente fattibile, e mi sentirei meglio se fosse tecnicamente impossibile o anche solo difficile :/