Mit Hilfe der gezielten Verteilung von Schärfe kann ein geübter Fotograf das Auge des Betrachters auf wesentliche Teile des Bildes lenken und die Aufmerksamkeit von anderen wegnehmen, die in der Unschärfe verschwimmen. Ist dagegen ein Bild durchgehend scharf, wirken alle Teile des Bildes gleichwertig. Das Auge kann sich schlechter orientieren. Solche Bilder wirken oft wie Schnappschüsse.
Mit größeren Optiken erzielt man die Verteilung von Schärfe in einem Bild durch Fokussierung auf die wichtigsten Stellen und eine Kombination aus großer Brennweite und weit geöffneter Blende. Dadurch wird eine geringe Tiefe der Schärfeebene erreicht. Alles davor und dahinter verschwimmt in der Unschärfe. Dieser Weg ist heutigen Smartphone-Kameras verbaut: Ihre Brennweite ist zu gering, schlicht deshalb, weil sie durch die Dicke des Smartphones begrenzt ist.
Was ausgewachsene Kameras auf optischem Weg erreichen, will Apple beim großen 7er iPhone mathematisch erzeugen: Beim von Apple so genannten "Tiefeneffekt" versucht ein Algorithmus zu ermitteln, welche Teile des Bildes scharf sein sollen. Die übrigen, also meist die Objekte im Hintergrund, werden dann künstlich unscharf gerechnet.
Das funktioniert mal besser, mal schlechter. In meinem Beispielbild bringt das Muster des Tisches den Algorithmus ziemlich durcheinander. Am linken Rand des Glases entstehen Artefakte, die auf einen verwirrten Tiefeneffekt-Algorithmus deuten.