[ad_1]

Un altro “scandalo-luna” si sta consumando in questi giorni, sulla falsariga di quello che anni fa travolse Huawei, solo che questa volta protagonista è Samsung.

UN posta su Reddit di 5 giorni fa è diventato virale, grazie all’eco di molte testate internazionali. L’autore ha dimostrato in pratica che la funzione “ottimizzatore di scena” della serie Samsung S23 aggiunge una quantità di dettagli che non si trovano da nessuna parte nella foto originale, dettagli che ovviamente rendono l’immagine molto più piacevole, rispetto a quello che altrimenti sarebbe uno zoom sfocato in lontananza.

Per fare ciò l’autore del post ha scaricato un’immagine ad alta risoluzione della luna, l’ha ridotta a 170×170 pixel e vi ha anche applicato una sfocatura gaussiana. Si è poi allontanato dal monitor, ha spento le luci e ha ingrandito fino a 60x con il suo Galaxy, ottenendo così la foto qui sotto.

La differenza parla da sé: l’elaborazione di Samsung ha chiaramente aggiunto “qualcosa” a uno scatto che altrimenti sarebbe risultato inevitabilmente molto sfocato, e questo nonostante la descrizione della funzione “ottimizzatore scena” non accenni esplicitamente a nulla di così drastico.

Ottimizza automaticamente le impostazioni della fotocamera per rendere le scene scure più luminose, i cibi più belli e i paesaggi più vividi.

L’autore ha quindi ipotizzato che Samsung stia ora facendo ciò che Huawei è stato accusato di fare anni fa, ovvero fondamentalmente mettendo a sovrapposizioniDi sostituire quella che sarebbe stata la vera foto della luna con una prestabilita, grazie al fatto che il nostro satellite rivolge sempre la stessa faccia verso la Terra, che è quindi altamente prevedibile.

In realtà le cose sono un po’ più complesse di così, e al di là del dettaglio tecnico, l’interpretazione finale rimane alquanto arbitraria.

Oggi Samsung ha inviato una risposta nella sua sala stampa inglese, proprio visto il clamore suscitato, spiegando cosa sta succedendo a livello tecnico. In poche parole, ecco cosa succede:

  • Le fotocamere Samsung Galaxy sintetizzano più di 10 immagini catturate con uno zoom 25x o superiore per eliminare il rumore e migliorare la chiarezza e i dettagli.
  • Quando l’ottimizzatore di scene è attivato (abbiamo già detto che lo è che può essere disattivato a discrezione dell’utente?), e il soggetto “lunare” viene riconosciuto, la fotocamera produce un’immagine più nitida e luminosa, oltre all’elaborazione del punto precedente, grazie ai pattern di apprendimento approfondito allenati su un’ampia varietà di forme lunari (dalla piena alla mezzaluna) e conseguenti dettagli.

La cosa più interessante, però, è forse la chiusura di tutta la replica: “Samsung continua a migliorare Scene Optimizer per ridurre qualsiasi potenziale confusione che può verificarsi tra scattare una foto della luna reale e qualsiasi immagine della luna.

Come abbiamo già sottolineato, su questo “scandalo lunare” in tanti hanno detto la loro, anche il noto youtuber Marchese Brownleeche solo pochi mesi fa in un breve video ha detto che Samsung non usa sovrapposizioni sulla luna, e la conclusione a cui molti sono arrivati ​​è quella che di solito non vogliamo quando facciamo una domanda: un’altra domanda, cioè cos’è una foto?

fotografia computazionale questo è quello che ha ha rivoluzionato la fotografia mobile negli ultimi anni. Diamo a Google gran parte del merito, perché è stato il primo ad applicarlo in modo “sorprendente” sui suoi smartphone Pixel, e da allora l’azienda di Mountain View è stata seguita da tutti i concorrenti, SAMSUNG soprattutto (ma anche Mela).

Dopo tutto, i telefoni hanno limiti fisici che non possono mai essere abbattuti: la dimensione dei sensori non può crescere molto, lo spazio a disposizione è quello che è (al netto di certi vistosi urto della stanza), e quindi invece di un solo sensore ne vengono utilizzati due, tre o anche quattro. Ma allora? Poi dove l’hardware non può intervenire il Softwarea vari livelli.

Smartphone riconoscono le scene da anni, e ottimizzano le foto su più livelli: esaltano il verde dell’erba, ritagliano i soggetti in primo piano per simulare la profondità di campo, danno calore al cibo e freddezza al cielo, smussano i bordi del viso e le imperfezioni della pelle, ecc.

ecc. Se scatti una foto scattata da un moderno top di gamma, ma non solo, e la confronti con ciò che vedi ad occhio nudo nel momento in cui l’hai scattata, ti ritroverai spesso davanti a due cose diverse. Simile, ma diverso.

La domanda che possiamo porci può riguardare dov’è il confinare tra “finzione” e realtà, ma la risposta difficilmente può essere obiettiva. Certo, negli ultimi anni Samsung ha fatto molti progressi sulla capacità del suo Galaxy S di scattare foto alla luna, ed essere più trasparenti al riguardo avrebbe aiutato, ma parliamo di una funzione che è attivo a discrezione dell’utentenon qualcosa di fisso nella fotocamera.

La fotografia computazionale funziona in modi diversi a seconda del risultato da produrre e del soggetto da ritrarre, e questo della luna è solo uno dei tanti modi in cui il software ha permesso agli smartphone di andare oltre il loro hardware.

Non ti piace il risultato? O meglio, visto che il risultato è innegabilmente migliore, lo ritenete troppo finto per i vostri standard? È un’obiezione legittima. Ma ricorda che anche il filtro di bellezza così onesto non è vero…

[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *