Le 19/07/2023
La France est considérée comme le berceau du cinéma depuis la première projection des Frères Lumière en 1895. Aujourd’hui, la France est l’un des pays qui produit le plus de films dans le monde et qui organise le plus de festivals de cinéma. Depuis le festival de Cannes en 1946, de nombreux festivals ont vu le jour en France et chaque année, de nouveaux festivals naissent.
Découvrez les festivals de cinéma les plus importants en France. Retrouvez ensuite une sélection de festivals qui seront de retour à l’automne 2023 ainsi que les festivals de cinéma plus atypiques à découvrir.