Apple a dévoilé le 7 mai la troisième édition de son programme MAMI Select : Filmed on iPhone, fruit de son partenariat avec la Mumbai Academy of Moving Image (MAMI). Quatre cinéastes émergents indiens — Shreela Agarwal, Ritesh Sharma, Robin Joy et Dhritisree Sarkar — y livrent des courts-métrages tournés intégralement avec un iPhone 17 Pro Max, accompagnés du MacBook Pro M5 et de l’iPad Pro M5 pour la post-production. Au-delà de l’opération marketing évidente, l’initiative dit quelque chose d’intéressant sur l’évolution du langage cinématographique et sur la démocratisation des outils de production.
Un programme de mentorat assumé
Pour cette édition 2026, Apple et la MAMI ont réuni un casting de mentors plutôt prestigieux : Sriram Raghavan (réalisateur du remarqué Andhadhun), Chaitanya Tamhane (Court, The Disciple, primés à Venise), Dibakar Banerjee et Geetu Mohandas. L’idée n’est pas seulement de produire de jolies images promotionnelles : il s’agit d’encadrer une nouvelle génération qui aborde le cinéma avec des outils radicalement différents de ceux de leurs aînés.
Shivendra Singh Dungarpur, directeur du festival, l’affirme sans détour : les éditions précédentes ont fait des émules. Le court Seeing Red a dépassé le million de vues sur YouTube et Kovarty a remporté le prix du meilleur court-métrage au Bengaluru International Short Film Festival. Le format inspire — et c’est précisément le but recherché.
Quatre films, quatre approches techniques
Ce qui rend cette édition intéressante du point de vue technique, c’est que chaque cinéaste a exploité une fonction différente de l’iPhone 17 Pro Max comme moteur narratif. Décortiquons.
Shreela Agarwal : ProRes RAW pour Mumbai by night

Pour 11.11, une « lettre d’amour à Mumbai après la tombée de la nuit », Agarwal a misé sur la capture en ProRes RAW. Techniquement, ce codec offre une plage dynamique étendue et un gamut colorimétrique large, avec un traitement minimal en amont. Concrètement, cela signifie que son équipe a pu pousser l’ISO en post-production et récupérer des détails dans les zones sombres que l’œil nu ne voyait même pas sur le tournage.
L’argument économique est limpide : « On n’a pas besoin de ces énormes projecteurs que les cinéastes indépendants n’ont jamais vraiment pu se payer », résume-t-elle. La stabilisation interne du capteur lui a aussi permis de grimper sur les rochers de la plage en suivant ses comédiennes — un type de mouvement qui aurait nécessité un steadicam et un opérateur dédié sur un tournage classique.
Ritesh Sharma : mode Cinématique et Audio Mix

Avec She Sells Seashells, Sharma raconte l’histoire de Maruti, une jeune migrante de 17 ans vendant des babioles sur les plages de Goa. Pour glisser de la réalité au monde intérieur de son personnage, il s’appuie sur le mode Cinématique, dont la bascule de mise au point reproduit l’effet d’une optique avec assistant focus.
Côté son, c’est la fonction Audio Mix qui fait le travail. Apple a introduit cette technologie sur les iPhone récents : elle exploite les apprentissages automatiques pour isoler les voix du bruit ambiant. Sharma l’utilise pour conserver les ambiances sonores du carnaval de Goa tout en maîtrisant les voix de ses personnages. Le réalisateur évoque même un workflow particulièrement mobile : enregistrer du son d’ambiance avec les micros natifs de l’iPhone, transférer le fichier sur le MacBook Pro et monter dans la foulée. Une chaîne de production qui aurait demandé une équipe son dédiée il y a encore dix ans.
Robin Joy : mode Action et accélération neuronale

Pour Pathanam (« Paradise Fall »), qui raconte la chute d’un ange dans le jardin d’un athée, Joy a sollicité plusieurs technologies à la fois. La chambre à vapeur de l’iPhone 17 Pro Max — une nouveauté thermique de cette génération — a permis au téléphone de tenir le rythme d’une journée de tournage de 9 à 17 heures sans throttling. Le mode Action, lui, a stabilisé les plans tournés depuis un petit bateau secoué par les vagues.
Mais l’aspect le plus parlant pour les développeurs et passionnés d’IA, c’est la post-production. Joy avait besoin de compositer numériquement les ailes prosthétiques de l’ange dans un plan complexe — un travail estimé à trois mois qu’il a réalisé en trois semaines. La clé : le mask tracking assisté par IA dans Adobe Premiere Pro, accéléré localement par les Neural Accelerators intégrés au GPU de la puce M5 du MacBook Pro. Apple a ajouté ces unités dédiées à l’inférence neuronale dans la partie graphique de M5, permettant aux applications créatives de faire tourner leurs modèles d’IA on-device, sans dépendre du cloud.
C’est exactement le type de scénario qui justifie le pari d’Apple sur l’inférence locale : pas de latence réseau, pas d’envoi de rushs vers un serveur tiers, et une performance qui ne dépend pas d’un abonnement.
Dhritisree Sarkar : zoom optique 8× et look celluloïd

Sarkar avait déjà tourné son premier court-métrage avec un iPhone 7 pendant le COVID — film racheté ensuite par MUBI. Pour Kathar Katha, qui suit une présentatrice de télévision atteinte d’une maladie scellant progressivement ses orifices, elle exploite à fond le système optique du 17 Pro Max.
Le zoom optique 8× équivalent 200 mm est utilisé pour capter les micro-expressions du visage et le reflet d’un luchi — un pain bengali — qui gonfle dans l’œil de l’héroïne. Combiné au mode macro natif, cela permet une grammaire visuelle qui passe sans rupture du gros plan extrême au plan rapproché. Pour évoquer une époque révolue, le directeur photo Anuj Ujawane a capturé en ProRes RAW avec le profil Apple Log 2, puis poussé contraste et grain en post-production pour reconstituer un rendu pellicule. Le ProRes RAW préserve ici la latitude maximale du capteur — c’est précisément cette latitude qui autorise des étalonnages aussi marqués sans faire exploser le bruit numérique.
Pendant les essais où la comédienne portait des prosthèses scellant ses yeux et sa bouche, l’équipe a transformé l’iPad Pro en moniteur de retour grâce à l’app Blackmagic Camera couplée à Tentacle Sync. Un usage très professionnel d’un workflow qui restait, il y a peu, l’apanage des plateaux dotés de matériel haut de gamme.
Au-delà du marketing : ce que cela dit de l’industrie
Soyons honnêtes : Apple est une marque qui sait orchestrer ses opérations de communication, et la campagne Shot on iPhone existe depuis 2015. Reste qu’au-delà du vernis, certaines tendances de fond s’affirment d’année en année.
D’abord, la convergence entre matériel grand public et exigence professionnelle. Le ProRes RAW, l’Apple Log 2, le 8× optique, l’Audio Mix : ce sont des fonctions qu’on aurait trouvées il y a peu sur des caméras à 30 000 €, désormais embarquées dans un téléphone que des millions de personnes possèdent déjà. La frontière entre « caméra » et « smartphone » s’efface lentement.
Ensuite, la montée en charge de l’inférence locale. L’exemple de Robin Joy compositant ses ailes d’ange grâce aux Neural Accelerators du M5 illustre une bascule importante : les outils créatifs intègrent de plus en plus d’IA générative et d’IA de tracking, et ces calculs s’exécutent désormais sur la machine plutôt que dans un datacenter. Apple pousse ce paradigme depuis l’arrivée du Neural Engine en 2017, mais l’intégration des accélérateurs neuronaux jusque dans le GPU change la donne pour les workflows vidéo lourds.
Enfin, un décalage géographique. Apple ne fait pas tourner ce programme à Hollywood ou à Cannes, mais à Mumbai. Le marché indien représente le deuxième plus grand marché de smartphones au monde et la première industrie cinématographique en volume. Cibler de jeunes auteurs locaux, leur fournir l’équipement et leur donner une vitrine internationale, c’est une stratégie de pénétration de marché habile — et accessoirement, c’est aussi ce qui permet d’élargir les voix qui se font entendre sur la scène mondiale du cinéma.
Pour aller plus loin
Les quatre courts-métrages sont disponibles gratuitement sur la chaîne YouTube de la MAMI. Au-delà de leur intérêt cinématographique, ils constituent un excellent cas d’étude pour qui s’intéresse aux workflows mobiles : observer comment Agarwal exploite la stabilisation interne, comment Sharma gère son son en mobilité ou comment Joy intègre l’IA à sa post-prod éclaire concrètement ce que ces technologies permettent — ou non — de faire aujourd’hui.
La question qui reste ouverte est celle du plafond. Jusqu’où peut-on pousser un capteur de smartphone avant de retrouver les contraintes physiques que les capteurs Super 35 ou Full Frame contournent depuis des décennies ? La taille des photosites, la profondeur de champ native, la latence de lecture du capteur restent des limites bien réelles. Mais pour des récits à budget contraint, dans des conditions de tournage difficiles, l’iPhone 17 Pro Max est devenu un outil légitime — et c’est probablement le seul message qu’Apple cherche vraiment à faire passer.
Source : Apple Newsroom



