La Lettre n°103 de Décembre 2011
Actualités : Comptabilité et évaluation : six points de controverse
par François Meunier, ancien Président de la DFCG
On traite ici de la relation entre la comptabilité et l’évaluation. Jusqu'à quel degré le comptable est-il astreint à la tâche de l’estimation et de l’évaluation des grandeurs comptables ? Peut-il accepter l’ouverture croissante des normes comptables à des informations venues du marché ou d’estimations modélisées ? Le débat a d’une certaine manière toujours existé, mais prend une ampleur nouvelle depuis vingt ans avec l’avènement des droits comptables modernes, et aujourd'hui dans le contexte de marchés en tourmente. En témoignent, sans caricature, les six propositions suivantes :
1- La comptabilité ne doit pas comporter d’éléments d’estimation et d’évaluation
Selon cet adage, le comptable est là pour enregistrer des flux passés. C’est le terrain – solide – sur lequel d’éventuelles évaluations pourront être faites.
En pratique, le terrain n’est nullement solide. Il est illusoire de penser que la comptabilité peut s’abstraire d’estimations et d’évaluations. Le premier comptable qui a abandonné la comptabilité de caisse et introduit des non cash expenses a mis le ver dans le fruit (et a dû provoquer à l’époque des débats aussi vifs qu’aujourd'hui quand il introduit la juste valeur). Cela s’est passé dès qu’on a imposé à la comptabilité de reconnaître d’une façon ou d’une autre les créances, les dettes et les engagements de l’entreprise vis-à-vis des tiers. Apparaissaient alors inévitablement les notions d’amortissement, de provision et de dépréciation.
On quittait le domaine du simple comptage d’un flux matériel (l’argent dépensé) pour une appréciation contradictoire de la réalité de la créance. Il y a immanquablement une part de vérité dans l’affirmation de certains que la comptabilité n’est que la partie chiffrée du droit général des obligations et des créances.
Quand les systèmes d’information d’entreprise et le niveau de formation des comptables et des directions financières étaient d’un niveau faible, il fallait cadrer au maximum les conditions dans lesquelles une provision pouvait être passée. Par exemple, une créance serait provisionnée si elle n’est pas acquittée au bout de 90 jours, mais pas au bout de 60 jours, etc. La comptabilité gardait donc un système de valeurs forfaitaires, à savoir les prix à l’origine de la transaction, et s’en écartait le cas échéant à la baisse avec des règles les plus codifiées possibles. (Pour des raisons tenant largement à la fiscalité de l’investissement, le débat n’a jamais eu – à tort – cette complexité concernant les amortissements : on s’en remettait au code des impôts, sauf en cas de dépréciation notable du bien.)
Mais les latitudes restaient par force très grandes, pour tenir compte de la nature de l’activité ou du degré de recouvrement attendu. En dehors de prescriptions faciles à suivre, le rôle du comptable consistait immanquablement à vérifier la validité de l’estimation faite.
Les droits comptables modernes ont commencé depuis longtemps, bien avant IFRS, à introduire une approche différente s’agissant de certains actifs, prioritairement les actifs financiers négociés quotidiennement sur les marchés. Pourquoi partir à leur sujet de la valeur forfaitaire, avec toutes les complexités pour fixer les critères d’une éventuelle dépréciation, quand on dispose de la mesure que donne le marché ? Par exemple, les compagnies d’assurance françaises sont tenues depuis longtemps, par leur code comptable particulier, de passer des dépréciations d’actif par rapport à leur valeur courante de marché : il en va de la mesure de la solvabilité de la compagnie, essentielle pour les créanciers forcés que sont les assurés. De même, le trésorier qui place sa trésorerie en certains actifs financiers ne pouvait s’abstraire de la valorisation de son portefeuille : il devenait naturel que la comptabilité prenne cela en compte.
Dès les années 90, les normes comptables américaines ont commencé à incorporer ces principes, au sortir d’ailleurs d’une crise majeure de leur système bancaire, celle des savings and loans, qui avait vu quantité de ces institutions être en situation de faillite alors que leurs fonds propres comptables restaient tout à fait abondants. Le champ d’application du principe de marché (ou de juste valeur) restait, à l’époque comme aujourd'hui, extrêmement limité, l’immense majorité des actifs restant mesurée selon le principe du coût amorti.
Les normes IFRS, qui reprennent les mêmes principes sur à peu près le même champ, ont eu la malchance de ne s’imposer pour l’Europe qu’à compter de 2005, ceci à la veille de la plus grave crise financière qu’ait connu le monde depuis l’après-guerre, une crise propre à déstabiliser le plus éprouvé des systèmes de mesure comptable. Le baptême du feu était un incendie. Par contraste, les États-Unis, qui ont eu le temps de l’expérience raisonnée, connaissent un débat sur leurs normes comptables bien moins virulent qu’en Europe, et particulièrement en France.
2- Les marchés ne sont pas efficients. Il est donc absurde et dangereux de baser une comptabilité sur les valeurs de marché
On dit à raison : « Les marchés ont leur folie, bien fol qui s’y fie ». Mais retournons la logique : si les marchés étaient efficients, complets, sans phénomènes de bulles et d’illiquidité ; si les agents étaient rationnels, si l’information était symétriquement partagée par tous, alors, précisément, la comptabilité deviendrait inutile. Elle ne serait qu’un exercice d’inventaire de chiffres et la profession comptable aurait disparu depuis longtemps, les ordinateurs pouvant faire ces additions plus commodément. (Dans un tel monde, il n’y aurait plus besoin de provisions et de dépréciation ; il y aurait convergence des comptabilités de caisse et d’engagement, la complétude des marchés fournissant des prix pour toutes les transactions présentes et futures.)
C’est précisément parce que les marchés ne sont pas efficients qu’on a besoin du principe de juste valeur, à savoir une distance raisonnée par rapport au prix. Le prix forfaitaire fixé au moment de la transaction d’origine, celui qui fixe le coût historique, est tout autant soumis à ces aberrations. Il est donc logique, pour les actifs les plus négociés sur un marché, de partir de cette valeur de marché, quitte à l’ajuster en cas de dysfonctionnement avéré.
Il n’y a que les inconditionnels des marchés pour égaliser rigidement en toute occasion la juste valeur au prix courant du marché (marked-to-market). Une jurisprudence, codifiée progressivement en norme par l’autorité comptable américaine, s’est mise en place par lequel on confère une autorité à plusieurs niveaux à l’information venue des marchés : des niveaux allant de 1 à 3, selon que le comptable peut se reposer sur un marché actif pour mesurer le prix de l’actif (niveau 1); qu’il puisse observer le prix d’un actif comparable sur un marché (niveau 2) ; ou qu’il ne dispose d’aucune référence observable (niveau 3). Le modèle prend donc sa place parmi les outils de la comptabilité. Il l’a toujours eu d’une certaine façon, la « provision » (on parle aujourd'hui de « dépréciation ») passée sur un actif selon la règle du coût amorti, avec ou non des prescriptions fixées a priori, représentant une forme de modèle, à la fois fruste et, étant moins codifié, souvent ouvert à la subjectivité.
L’embarras avec IFRS et à un moindre degré les normes US Gaap aux États-Unis est que cette évolution est très neuve et non stabilisée. Il en résulte une défiance assez légitime chez les praticiens qui doivent affronter, dans un contexte souvent conflictuel, des cas complexes à enjeu important. Un exemple est le contraste entre la terminologie retenue par IAS 36, la norme qui gouverne les dépréciations sur les écarts d’acquisition dans les comptes consolidées des entreprises, et la norme IAS 39, qui traite de la mesure des actifs financiers. La première parle de valeur recouvrable, faisant sa part entre valeur de marché (immédiatement mesurée) et valeur d’utilité (dont la mesure résulte d’un modèle, basée sur les flux de trésorerie futurs) ; la seconde parle des niveaux 1 à 3 indiqués plus haut. On perçoit pourtant que la logique est la même. Les principes et la terminologie doivent être rendus cohérents. La seule question est : comment faire l’estimation quand le marché est silencieux ou livre des informations partielles ? Comment fixer des règles de construction de modèles qui soient des substituts acceptables du marché, auditables et suffisamment objectifs ? C’est l’objet de la norme IFRS 13 de donner un tel cadre unifié.
3- Les systèmes comptables reposant sur la valeur de marché plutôt que sur le coût amorti entraînent une volatilité plus grande des mesures comptables
C’est vrai à court terme. A long terme, le cas est moins assuré. Quand on ne prend pas un prix de marché, on filtre la volatilité parasite du marché, ce qui est bien. Mais le problème est qu’on la filtre trop, ce qui n’est pas bien. Le bruit qui vient du marché disparaît, mais au prix d’une disparition de la volatilité fondamentale, celle qui veut que toute information nouvelle sur un actif se traduit par une modification de son prix.
On est ici dans le domaine du choix imparfait. Que faut-il préférer : plus de volatilité immédiate des comptes mais une meilleure information, ou bien moins de volatilité mais une information obsolète, qui parfois ne sert à rien ou qui est même trompeuse. Pour les grandes entreprises, qui disposent de départements financiers qualifiés et qui sont suivies par des auditeurs, internes et externes, eux-mêmes très qualifiés, la réponse est sans ambages : il faut préférer l’information la plus fraîche et donc ne pas se priver de la source qu’est le marché. Avec les amendements mentionnés plus haut. C’est plus discutable pour les entreprises de petite taille qui doivent en rester à des principes forfaitaires simples, d’autant que leurs opérations comptables sont elles-mêmes le plus souvent simples et donc non affectées en pratique par le principe de la juste valeur. (Si l’entreprise s’engage dans des opérations complexes, alors il est sain qu’elle soit tenue d’en faire une comptabilité complexe : entreprendre sans mesurer ce qu’on entreprend n’est pas de la bonne gestion.)
Sur le long terme, attention à la volatilité qu’on mesure. Les banques japonaises pendant la décennie 90 illustrent bien le cas. A ne retenir que le coût historique, de fait le résultat et les fonds propres sont stables… jusqu'au moment de vérité où on doit reconnaître les vraies valeurs dans les comptes. Résultat et fonds propres descendent alors une marche d’escalier brutale. Mesurée sur la longue période, y compris le choc, il n’est pas certain que la volatilité des comptes soit moindre.
4- Les systèmes comptables reposant sur la valeur de marché plutôt que le coût amorti entraînent des effets de spirale en cas de tourmente des marchés, et donc au total une déstabilisation financière
Il y a indubitablement, surtout dans les activités financières, des cas de cercles vicieux par lesquels une violente chute de prix sur les marchés obligent les entreprises à liquider leurs actifs les plus liquides, ce qui fait à son tour chuter leurs prix, dans un processus de spirale à la baisse. (De plus, elles gardent pour elles les moins liquides et donc a priori les plus mauvais.)
Il y a deux facteurs derrière ce phénomène. Le premier est l’existence de règlementations contraignantes par exemple sur les appels de marge ou sur la solvabilité requise obligeant à des ventes forcées « à la casse », qui expliquent d’ailleurs pourquoi ce phénomène est susceptible de se rencontrer surtout pour les institutions financières. Le second est plus général et tient à ce qu’on peut appeler des « conventions » sur les marchés : par exemple un résultat net en perte est un signe négatif qui modifie d’un coup à la baisse les anticipations, avant que le marché adopte cette nouvelle convention.
On rencontre le même phénomène à propos des notes d’agence sur la solvabilité, et donc le même type de critiques. L’instrument de mesure n’est plus sans incidence sur la réalité qu’il mesure. A noter que le principe du coût amorti n’échappe pas à la critique : quand la dépréciation viendra à être passée, les anticipations s’ajusteront brutalement et pourront provoquer les mêmes effets de spirale.
C’est un sujet qui concerne au plus haut point les régulateurs bancaires. Ils veillent à la stabilité globale du système financier et veulent à tout prix limiter les cas où les marchés se dérobent ; mais ils veulent aussi, à un niveau micro, disposer de la meilleure information possible sur chaque banque. Si la banque a de l’ordre de 3% de fonds propres en proportion de son actif (cas qui était assez fréquent à l’orée de la crise financière ouverte en 2007), une simple dépréciation de 3% de son actif risque de la mettre par terre. La bonne mesure du patrimoine prend une dimension décisive. Et les régulateurs sont conscients que la tenue de deux comptabilités n’est pas une solution : la première qui serait assourdie, à l’usage exclusif des marchés ; la seconde, plus immédiate, mieux collée à la réalité des prix, à leur usage exclusif. Le management de l’institution sous ces deux systèmes de mesures deviendrait impossible et les marchés auraient tôt fait de capter l’information pertinente.
Il y a incontestablement aussi une éducation à faire pour les intervenants de marché. Par exemple, les analystes boursiers se sont convaincu au fil des cycles économiques que le secteur sidérurgique est par nature cyclique. Ce fait, une fois intériorisé, n’est plus déstabilisant : on observe aujourd'hui de leurs cours boursiers qu’ils atténuent plutôt qu’amplifient les variations de résultat des sociétés du secteur. S’agissant du secteur financier, cette éducation est malcommode dans la période de troubles vécue aujourd'hui, où tous les repères s’effacent. De plus, une période de questionnement sur leurs modèles d’affaires s’ouvre pour les grandes banques. Mais il est probable que l’appréciation qu’en fera demain la Bourse reposera plus sur la mesure de leur solvabilité et de leurs fonds propres que sur leur résultat instantané.
Un article important (1) a montré qu’en pratique ces phénomènes de spirale ont assez peu joué sur les acteurs bancaires américains lors de la crise de 2008-09. Les banques ont pris à reculons leurs provisions sur leurs portefeuilles immobiliers, pestant contre leurs obligations comptables en US Gaap. On allait voir une remontée des prix des actifs malsains, disaient-elles. Trois ans après, on ne la voit toujours pas. Hank Greenberg, l’ancien président de AIG, était le plus violent adversaire du principe de juste valeur imposé pour l’évaluation de son actif, jusqu'à ce qu’il laisse une ardoise de 182 Md$ au Trésor américain.
5- Les estimations comptables laissent trop la place à l’arbitraire et donnent trop la main au management dans la comptabilisation
La tradition comptable restait et reste encore dans une logique où il est mieux que le management reste à l’écart du processus d’enregistrement comptable. Le management est toujours vu comme susceptible, par défense de ses intérêts, de biaiser l’information produite. D’où les comptes au coût historique, faciles à opposer aux tiers en cas de contestation. Selon cette vision, l’indépendance du comptable et la qualité du contrôle de l’auditeur doivent s’appuyer au maximum sur des normes et prescriptions extérieures à l’entreprise, de façon étanche au management.
On a insuffisamment pris conscience que l’esprit des systèmes comptables modernes est au contraire d’utiliser l’expertise du management sur les actifs qu’il gère. Il est en effet « initié » et détient une information précieuse sur la réalité financière des actifs gérés. Un document sous signature du FASB et de la SEC l’indique bien : « quand il n’existe pas un marché actif d’une valeur mobilière, l’utilisation des estimations du management […] est acceptable. » Il ajoute : « La détermination de la juste valeur requiert souvent du discernement (2). » Notons qu’on déresponsabilise quelque peu le management à trop le tenir à l’écart, sauf, perversement, quand les comptes produisent une image à ce point à son détriment qu’il est conduit à intervenir, bien entendu dans le mauvais sens (3).
Il convient donc, sans angélisme, de mettre le management dans une posture où il est conduit à révéler la bonne information sur l’actif. Si le marché est profond et liquide, et si le management ne peut pas prouver le contraire, les prix de marché s’imposent. Si le marché est un moins bon guide, le management peut s’abstraire partiellement (niveau 2) ou même complètement (niveau 3) des valeurs de marché.
Le risque de biais dans la valeur de modèle est évidemment présent. Mais selon quelle logique faudrait-il se priver de l’avis de ceux qui la meilleure capacité technique de juger de la valeur des actifs ? S’il y a manipulation, la prévention doit s’exercer à un autre niveau, celui des organes d’une bonne gouvernance, interne et externe, laissant le cas échéant leur place aux expertises indépendantes. Les nouvelles normes comptables ne sont pas séparables d’une gouvernance plus étroite, plus complexe et plus participative. De par leurs multiples mandats et leur forte expertise comptable, les cabinets d’audit jouent un rôle déterminant dans ce processus participatif. Il est de leur responsabilité de bâtir et de diffuser, comme c'est le cas dans d’autres domaines du droit, la jurisprudence adaptée, c'est-à-dire les bonnes pratiques. Il est pitoyable qu’ils ne l’aient pas fait à l’occasion du provisionnement de la dette grecque dans les comptes des banques européennes lors des semestriels 2011.
Evidemment, c’est un système de production de chiffres qui est au total plus coûteux, correspondant à des directions financières dotées de systèmes d’information plus riches et plus complexes (raison pour laquelle il n’est pas possible sans fortes simplifications d’imposer les normes IFRS pour les entreprises ne disposant pas de ces moyens ni d’une gouvernance sophistiquée). C'est aussi un système plus ouvert à la contestation que les systèmes antérieurs – comme l’est la pratique moderne du droit. Mais c’est la condition d’une bonne transparence, dont le sens n’est pas d’accroître le volume des informations livrées à l’extérieur, mais de donner l’information dans un contexte qui la rend pertinente.
6- Devant l’imperfection présente des normes US Gaap ou IFRS, et l’état de chantier dans lequel elles sont, toute critique est bonne à prendre
L’entreprise de construction est immense, d’autant qu’elle se fait à un niveau international, et qu’elle conduira probablement à une unification du système comptable américain et des normes IFRS, cas où l’Europe aura joué une fois de plus son rôle de production de normes.
Pour les financiers dans les entreprises avec présence internationale, c’est un pas en avant majeur : il permet un dialogue simple entre les équipes financières et la cohérence entre le contrôle de gestion et la comptabilité.
Mais le chantier est là et les critiques sont nécessaires. Cela s’appelle la transparence et, pour l’organe normalisateur, la voie du consensus autour de normes fortement débattues et critiquées est probablement la seule praticable, sachant le champ de forces politiques dans lequel il opère.
Dans ce contexte, les « professions du chiffre », y compris et surtout leur superviseur, sont dans une position nécessairement ambigüe. D’un côté, elles sont bien placées pour observer les manquements et défaillances, et donc pour porter les critiques. De l’autre, elles sont les gardiennes des « normes », dans un sens fiduciaire, et doivent les faire respecter. Un travail de sape trop systématique contre ces normes devient alors dangereux, parce qu’il mine la confiance, peut pousser les investisseurs à ne plus croire en rien et les entreprises à ne plus les respecter. Au total, il peut entraîner une dégradation de la production comptable et créer le mal qu’il entend régler. Souhaitons que ce risque soit bien pesé par tous.
(1) Laux, Christian, and Christian Leuz. 2010. "Did Fair-Value Accounting Contribute to the Financial Crisis?" Journal of Economic Perspectives, 24(1): 93–118.
(2) SEC Office of the Chief Accountant and FASB Staff, 2008, « Clarifications on Fair Value Accounting », 30 septembre 2008, www.sec.gov.news/press/2008/2008-234.htm.
(3) Voir Meunier, François, 2009, « Les IFRS dans la tourmente des marchés », Revue Française de Comptabilité, mars, n°419, pp. 23-27.
Tableau : Les retards de paiement en Europe
Dans sa dernière livraison trimestrielle, Altares établit que les retards de paiement en Europe restent, pour l’instant, stables à 13,4 jours.
30 % des entreprises européennes paient leurs factures avec un retard de plus de 15 jours.
La palme de la vertu revient à l’Allemagne où 59% des entreprises paient sans retard contre 41% en Europe et seulement 34% en France avec un retard moyen de 12 jours contre 8 jour outre-Rhin. A l’autre extrême, se situe le Portugal où 6% des entreprises ont plus de 120 jours de retard (sic), en plus de délais de paiement moyens de 100 jours (voir la page 263 du Vernimmen 2012).
Recherche : Les fusions-acquisitions, un outil de réduction du risque opérationnel ?
avec la collaboration de Simon Gueguen
Enseignant-chercheur à Paris Dauphine
Deux chercheurs américains ont publié récemment un article (1) portant sur les motivations des fusions – acquisitions d’entreprises. Ils se sont tout particulièrement intéressés aux éléments déclencheurs des vagues de fusions, puisqu’il est établi depuis longtemps que la grande majorité des fusions – acquisitions a lieu par vagues, industrie par industrie (2). Deux facteurs déclencheurs de vagues de fusions – acquisitions dans un secteur économique avaient déjà été identifiés par la recherche :
• des valorisations boursières historiquement élevées des initiateurs ;
• des chocs économiques dans le secteur concerné ; ces chocs consistent en une variation exceptionnellement élevée (à la hausse ou à la baisse) de différentes données sectorielles (ventes, profitabilité, investissement, R&D, emploi, rentabilité économique).
L’article montre qu’il existe un troisième élément déclencheur, statistiquement et économiquement significatif : la volatilité des flux de trésorerie (ou cash flows). L’idée est que les opérations de fusion peuvent avoir un objectif de gestion du risque en situation d’incertitude. Ce sont les fusions verticales qui sont ici visées. L’idée originale se trouve dans un article de 1971 d’Oliver Williamson (3), Prix Nobel d’Economie 2009 : l’intégration verticale permet de contourner des difficultés à s’engager sur des contrats, en particulier en période d’incertitude.
Par exemple, le fait de fusionner avec un fournisseur permet d’internaliser des charges externes et de stabiliser ainsi les coûts d’approvisionnement. En cas de forte incertitude, il est difficile de rédiger avec les fournisseurs des contrats suffisamment précis pour prévoir toutes les situations possibles et réduire l’incertitude ; la fusion (verticale) est donc une bonne solution. Les fusions verticales agiraient donc comme une couverture opérationnelle contre le risque, éventuellement moins chère et plus efficace que d’autres formes de couverture.
L’étude empirique, fondée sur un échantillon large de fusions aux Etats-Unis entre 2001 et 2006, révèle que lorsque la volatilité des cash flows(4)des entreprises d’un secteur augmente d’un écart-type, la probabilité de déclenchement l’année suivante d’une vague de fusions dans ce secteur augmente d’environ 0,6%. Ce chiffre qui peut sembler faible est en réalité économiquement significatif : la probabilité absolue de déclenchement d’une vague de fusion par secteur et par an n’est que de 3,24% selon la méthodologie (restrictive) suivie par les auteurs.
A titre de comparaison, l’effet lié aux chocs économiques est inférieur à 0,3%. La proportion de fusions verticales dans le total des fusions est également plus forte, ce qui laisse présumer que c’est bien la couverture opérationnelle qui est recherchée.
Les auteurs confirment cet objectif de gestion du risque par une analyse individuelle (et non plus sectorielle) des fusions. Les entreprises qui voient une hausse de la volatilité de leurs cash flows sont plus nombreuses à initier une fusion verticale. Enfin, l’analyse indique que cette couverture opérationnelle est effective : la volatilité des cash flows diminue significativement après une fusion verticale.
Cet article identifie empiriquement la gestion du risque comme l’une des motivations des fusions verticales. Au niveau sectoriel, cette motivation peut même favoriser le déclenchement de vagues de fusion ; et ce comportement conduit à une réduction effective de la volatilité des cash flows.
(1) J.A.GARFINKEL et K.W.HANKINS (2011), The role of risk management in mergers and merger waves, Journal of Financial Economics, vol.101, pages 515-532.
(2) Les auteurs reprennent à ce sujet un article de J.HARFORD (2005), What drives merger waves ?, Journal of Financial Economics, vol.77, pages 529-560.
(3) O.E.WILLIAMSON (1971), The vertical integration of production : market failure considerations, American Economic Review, vol.61, pages 112-123.
(4) Il est à noter que les auteurs désignent génériquement par « cash flows » des éléments du compte de résultat qui ne sont pas au sens le plus strict des flux de trésorerie. Deux mesures sont utilisées dans l’article (et aboutissent sensiblement aux mêmes résultats). La première est l’Operating Income Before Depreciation (OIBD), qui correspond en français à l’excédent brut d’exploitation (EBE). La seconde est le coût des ventes (cost of goods sold).
Q&R : Le crédit d'impôt recherche
Le crédit d’impôt recherche est un mécanisme fiscal par lequel l’Etat français apporte une aide financière aux entreprises entreprenant des dépenses de recherche. Celles-ci bénéficient alors d’un crédit d’impôt égal à 30 % des dépenses de recherche n’excédant pas sur une année 100 M€, puis de 5% au-delà. Les taux est porté à 40% la première année, puis 35% les deux années suivantes pour les entreprises qui n’ont pas bénéficié de crédit d’impôt au titre des cinq années précédentes, sauf si l’entreprise est de création nouvelle naturellement.
Fiscalement, le crédit d’impôt sert à payer l’impôt sur les sociétés ou sur le revenu dû par l’entreprise. Le solde éventuel est une créance sur l’Etat qui peut être utilisée pour le paiement de l’impôt des trois années suivantes. La fraction non encore utilisée à cette échéance est alors remboursée par l’Etat à l’entreprise. Les PME et les jeunes entreprises innovantes peuvent demander le remboursement immédiat de cette créance.
Comptablement, le produit du crédit d’impôt vient en diminution de l’impôt sur les bénéfices en normes françaises (depuis 2010) pour les comptes sociaux. En normes IFRS, le traitement retenu est celui de la subvention en produit d’exploitation. En normes françaises pour les comptes consolidés, les groupes ont le choix pour l’instant entre les deux traitements.
Au lecteur qui s’étonnerait du traitement retenu par l’ANC en comptes sociaux, nous rappelons que les comptes sociaux ont une connotation fiscale et que le traitement retenu permet d’éviter l’imposition du crédit d’impôt recherche au titre de la cotisation sur la valeur ajoutée des entreprises (CVAE) (1).
D’un point du vue financier, le traitement en subvention et donc en produit d’exploitation, du crédit d’impôt recherche, nous parait préférable car plus proche de la réalité économique. Sauf exception justifiée par l’importance du montant qui justifierait un redressement de la ligne impôt à la ligne autre produit d’exploitation, notre lecteur pourra passer à autre chose.
(1) Pour plus de détails, voir La Lettre Vernimmen.net n° 89 de juillet 2010.
Autre : Nouveau sur le site www.vernimmen.net
Nous avons ajouté une dizaine de mémoires de recherche de grande qualité sur le site www.vernimmen.net qui en totalise maintenant une soixantaine. Pour les découvrir cliquez ici.
Si vous souhaitez nous soumettre votre mémoire de fin d’étude, adressez nous un mail grâce à la boite aux lettre du site www.vernimmen.net.
Nous vous demanderons une copie de sa feuille d’appréciation par votre tuteur / professeur afin de ne porter à l’attention des utilisateurs du site www.vernimmen.net que les meilleurs travaux.