jeudi 30 août 2012

Le commandement sur le barrage


La ligne Morice désigne le réseau mis en place en 1957 du Nord au Sud le long de la frontière entre l’Algérie et la Tunisie afin d’empêcher l’infiltration des forces du front de libération nationale (FLN) formées dans ce dernier pays. Ce réseau comprend alors une simple ligne électrifiée protégée des animaux par deux grillages, courant de Bône à Souk-Ahras et Tébessa, prolongée plus au Sud par une surveillance par « radars-canons » et doublée en 1959 par une deuxième ligne (ligne Challe) collant à la frontière. Le dispositif mis en place en 1957 comprend trois filtres : quatre régiments d’infanterie occupent la zone entre la ligne et la frontière, six régiments blindés en patrouille permanente le long de la ligne (la « herse mobile ») et six autres régiments de secteurs à l’Ouest de la ligne. En décembre 1957, un premier bilan indique que malgré les moyens mis en place (équivalents à la moitié du nombre actuel d’unités d’infanterie et de blindés), 70 % des tentatives de franchissement ont réussi et que 2 000 combattants armés ont rejoints les Wilaya.

Le général Vanuxem propose alors de superposer à cette structure relativement fixe, une nouvelle structure beaucoup plus mobile et réactive. Cinq régiments parachutistes sont mis en place en face des principaux axes de pénétration et, c’est ce qui nous intéresse ici, une nouvelle structure de commandement, très originale. La mission des paras est simple (détruire les bandes qui franchissent) mais elle comporte une contrainte majeure : cette destruction doit s’opérer dans la journée qui suit le franchissement, sous peine de voir les fellaghas profiter de la nuit suivante pour disparaître définitivement. Il s’agit donc de concevoir et conduire des manœuvres qui, comme le rapporte le lieutenant-colonel Buchoud, commandant le 9e Régiment de chasseurs parachutistes (RCP), peuvent représenter quatre engagements d’une dizaine de compagnies à chaque fois et huit opérations héliportées dans une seule journée. Buchoud cite aussi l’exemple d’un capitaine engageant au combat sa compagnie trois fois dans la même journée avec des points d’application distants de 30 à 50 km.
Pour parvenir à une telle rapidité et une telle souplesse, les méthodes habituelles sont inopérantes. Le général Vanuxem impose donc un principe simple : le chef de corps du régiment parachutiste (un lieutenant-colonel) concerné par une infiltration doit prendre l’initiative de monter une opération et a le pouvoir de prendre le « contrôle opérationnel » de toutes les unités qu’il souhaite et quand il le souhaite, et cela sans considération de hiérarchie. Le 23 février 1958 à 0h30, le lieutenant-colonel Buchoud envoie ce message au général Vanuxem, depuis son hélicoptère de commandement, pour décrire un concept d’opération de niveau brigade monté en quelques minutes avec l’aide d’un capitaine :
1-Vous demande de placer un escadron du 18e dragons dès que possible en bouclage sur la route Souk-Ahras et faire rechercher le renseignements par poste Calleja
2-Je lance immédiatement mon escadron et escadron du 152e RIM, actuellement à mes ordres en bouclage entre Souk-Ahras et Dréa.
3-Disposerai pour 6h30 ensemble de mon régiment entre Zarouria et Dréa pour ratissage.
4-Cette action sera complétée vers le sud par mon groupement du 152e RIM.
5-Ces actions seront utilement prolongées au nord et au sud. Nord pourrait être confié à un élément du 60e RI et actionné par vos soins. Sud, à un élément du 152e, également actionné par vos soins.
6-Ai donné ordres à tous éléments du 152e RIM. Vous demande prévenir 60e RI, 18e dragons, 4/8e RA. Annulation opération précédemment prévue. Stop et fin.

La vitesse nouvelle donnée aux opérations de traque donne des résultats immédiats et en mai 1958, la bataille du barrage est pratiquement gagnée, non sans pertes par ailleurs (le 1er Régiment étranger de parachutistes perd 111 tués, dont le chef de corps, pour 1 275 combattants rebelles éliminés).

Les ordres d’opération dans un contexte dialectique sont toujours le résultat d’un arbitrage entre la vitesse et la précision de la conception. Faire confiance et donner provisoirement le pouvoir au chef au contact, en considérant que c’est lui qui dispose des meilleures informations, est un moyen d’accélérer les opérations tout en conservant une précision correcte des ordres. C’est également la méthode mise en place dans les divisions d’assaut allemandes de 1918 avec un échelon de commandement simplifié (armée-division-bataillon) et le pouvoir donné aux chefs de bataillon au contact sur tout ce qui arrive vers eux. C’est aussi un concept proche de la boucle Observation-Orientation-Décision-Action des pilotes de chasse. Il s’agit d’une manière de commander très efficace lorsqu’il faut agir vite et/ou profiter d’une situation de chaos, beaucoup moins (au moins intitialement) si la surprise ne peut pas jouer. Cela suppose de gérer une multitude d’ego froissés mais surtout de disposer de cadres de contact compétents à l’échelon pertinent de décentralisation.  Cela ne pose guère de problème avec des Jeanpierre, Buchoud ou d'un Bigeard qui commence en 1957 sa 18e année de guerre à la tête de son quatrième régiment.

samedi 4 août 2012

Gangs


Les gangsters ont en commun avec les soldats qu’ils prennent des risques physiques et qu’ils sont parfois amenés à tuer pour accomplir leur mission et en commun avec les entreprises que leurs missions ont pour but de gagner de l’argent. En cela et hors de toute considération morale, les films de gangsters sont autant de descriptions du fonctionnement d’organisations humaines.

On peut distinguer ainsi l’organisation du type Le Parrain 2, avec une structure pyramidale centralisée dirigée par Michael Corleone et fonctionnant comme un conglomérat d’activités diversifiées, parfois légales. Cette centralisation a ses vertus comme la possibilité de concentrer des moyens importants sur des points jugés décisifs par le chef. Elle a aussi ses défauts. L’efficacité de l’ensemble dépend des qualités propres du chef mais aussi de celle des informations qu’il reçoit. Or, les informations viennent de lieutenants qui ont leurs objectifs propres, dont le premier est la survie, qui incite à ne pas déplaire au chef en lui annonçant de mauvaises nouvelles, et le second est de faire plus de bénéfices, qui incite poursuivre ses propres affaires à l’insu du chef voire en même en contradiction avec lui. Ce système fonctionne bien lorsque le chef est bon, qu’il est entouré de bons conseillers et que les lieutenants sont loyaux et honnêtes ( !) dans leurs comptes rendus. Même ainsi l’ensemble reste lourd et lent mais il est puissant.

A l’opposé de ce modèle on trouve la petite équipe très professionnelle de Heat dirigée par Neil Mc Cauley (De Niro). Le gang est une entreprise très dynamique et très réactive avec les avantages des groupes cohérents : confiance, connaissance mutuelle, spécialisation. Par amitié, par intérêt (les rémunérations sont au mérite) et parce que le contrôle du chef est direct, chacun est incité à se donner à fond. En revanche, les moyens, et donc les ambitions, restent limités et la moindre erreur peut signifier la fin du groupe.

Un troisième modèle est proposé dans Réservoir Dogs, où un groupe d’individus se réunit pour un travail ponctuel avant de se disperser. Comme pour la réalisation d’un film, on y recrute des gens avec des compétences spécifiques afin de coller au mieux aux besoins de la mission. Le financement se trouve limité au temps de la mission mais le problème est que la création et la gestion de ce type de structure induit des coûts de transaction. Il faut du temps pour réunir le groupe et mettre en place les procédures qui permettront d’avoir confiance les uns dans les autres.

Les grandes organisations et notamment les armées cherchent à combiner les avantages de ces trois structures. Elles sont toutes hiérarchisées et pyramidales du fait de leur taille mais elles fonctionnent à partir d’unités de combat soudées et font appel à des compétences extérieures grâce notamment aux réservistes. Bien entendu tout cela fonctionne plus ou moins bien car ces approches sont en partie contradictoires et chaque organisation à tendance à en privilégier une.

Parmi les armées privilégiant l’« approche Parrain », l’armée soviétique de la Seconde Guerre mondiale est un exemple de structure centralisée fonctionnant correctement, à partir de 1942 au moins. Le haut-commandement, la Stavka, reçoit de nombreux comptes rendus de la base, fait évoluer d’un bloc structures et règlements et planifie de plus en plus magistralement de grandes opérations. C’est lent, parfois coûteux, mais c’est inexorable. L’armée japonaise de la même époque est un exemple inverse. Les commandants de théâtre ont tellement honte des échecs lorsqu’ils surviennent qu’ils oublient souvent d’en faire part ou transforment considérablement la réalité des faits. L’état-major de Tokyo est de plus en plus coupé des réalités au fur et à mesure de l’avancée de la guerre et l’armée japonaise se rigidifie.

L’armée britannique est plutôt de l’approche Heat dans la mesure où elle met l’accent sur la cohésion de ses corps de troupe. Ceux-ci sont effectivement en général très solides mais leur cohésion abouti aussi à des rivalités et des cloisonnements néfastes à l’efficacité globale. La souplesse est obtenue lorsque certains de ces groupes deviennent des laboratoires tactiques innovants comme le Royal Tank Corps, le Parachute regiment, les Commandos, les Chindits ou le  Special Air Service. Toute la difficulté réside alors dans la possibilité de création de ces groupes nouveaux, ce qui impose de fait des ressources nouvelles et des volontés fortes internes (JFC Fuller, Orde Wingate, David Stirling) ou externes (Churchill).

Américains de la Great generation ou Israéliens de l’époque des pionniers (disons jusqu’à la guerre du Kippour) sont plutôt sur le modèle Reservoir Dogs. La majeure partie des combattants ne sont pas des professionnels mais des amateurs motivés qui se réunissent pour faire face à des menaces particulières. Cela ne va sans rivalités et conflits de personnalités ni tâtonnements et erreurs mais l’association de compétences multiples permet souvent de trouver des solutions originales et efficaces.

Quant à l’armée française, ce sera l’objet d’un autre billet. 

L'exemple des films de gangsters est tiré de La sagesse des foules de James Surowiecki.

vendredi 3 août 2012

Zara comme modèle opérationnel


Dans le monde de la confection, la plupart des maisons conçoivent leurs produits avec une double saison d’avance avec le risque que, dans un contexte aussi volatil que celui de la mode, les vêtements qui arrivent dans les magasins plusieurs mois plus tard ne plaisent pas autant qu’anticipé. Outre la gestion de stocks de plusieurs mois, les magasins doivent donc également gérer des invendus, le plus souvent en les soldant. Les maisons essaient de rattraper ces coûts ex post en réduisant ex ante au maximum leur coût de fabrication grâce à la production de masse par une main d’œuvre étrangère bon marché. Mais si cette externalisation réduit les prix de production, elle engendre aussi des coûts de transaction, en particulier des délais, qui entretiennent le système dans son homéostasie.

Dans les années 1930, John Maynard Keynes avait révolutionné la science économique en considérant simplement que c’était la demande qui créait l’offre et non l’inverse. En 1975, Amancio Ortega a organisé Zara sur le même principe. Comme le kanban de Toyota, lui-même inspiré de la distribution alimentaire, chez Zara tout part du client avec l’obsession de le satisfaire au mieux et surtout au plus vite. Pour cela les gérants des 2 600 magasins envoient tous les jours au bureau de conception des comptes rendus quotidiens de ce que les clients achètent, dédaignent ou demandent sans être satisfaits. A partir de ces comptes rendus mais aussi de l’observation de la concurrence ou des grands stylistes, les concepteurs définissent très vite de nouveaux produits tests dont la fabrication est confiée non pas à des sous-traitants étrangers mais à 14 usines très automatisées en Espagne qui travaillent 24h/24 puis, pour la finition, à 300 ateliers d’artisans de Galice et du Nord du Portugal. On associe ainsi la vitesse de production et la qualité. Dix à quinze jours après la conception, des lots tests sont envoyés dans les magasins. S’ils se vendent bien, la production de masse (mais pas plus de 30 000 exemplaires) est lancée, s’ils ne se vendent pas en revanche ils disparaissent vite des étagères et la perte reste limitée.

Zara livre ainsi ses magasins deux fois par semaine et sort jusqu’à 30 000 produits par an, soit des dizaines de fois plus que ses concurrents. L’entreprise n’a pas plus d’un mois d’inventaire (au lieu de trois pour Gap par exemple) et très peu d’invendus. Il n’y a pas besoin non plus d’un budget publicitaire important puisqu’on ne cherche pas à imposer des produits particuliers qui, de toute façon, disparaîtront quelques semaines plus tard des rayons. La faiblesse de ces coûts périphériques permet en retour de maintenir les prix à un niveau bas, ce qui accroît encore la satisfaction du client. La vitesse a créé ainsi un cercle vertueux qui a fait la fortune de Zara et de son fondateur.

Cette boucle OODA (observation-orientation-décision-action, chère aux aviateurs de chasse) rapide a été possible grâce à un « service de renseignement » dense et au plus près du terrain. Par le biais de l’observation, de l’écoute et, comme dans tout marché, par le prix, Zara a réussi à coordonner son comportement sur celui des consommateurs alors qu’elle n’a qu’un faible contrôle sur eux. Du côté de l’offre, Zara ne contrôle pas non plus complètement ses fournisseurs autrement que par le marché (par le biais de contrats). En revanche, assurer cette double coordination entre la production et la demande impose une coordination interne précise et rapide, qui exclut toute externalisation et la friction clausewitzienne que celle-ci suscite inévitablement (incompréhensions, délais, manque de réactivité, etc.).

Les enseignements opérationnels à tirer de cette expérience sont nombreux. En voici quatre qui viennent à l’esprit :

Le premier est que lorsqu’on observe une tendance aux rendements décroissants, il est peut-être utile de se demander, comme Dick Fosbury avant de sauter sur le dos, si en faisant l’inverse de ce qui est habituellement fait ou de ce qui paraît évident ou intuitif on ne réussirait pas à faire mieux. Lorsque la logistique devient trop lourde, une troupe à pied peut être plus rapide et mobile qu’une troupe motorisée (l’infanterie chinoise dans la guerre de Corée par exemple) ; lorsque la protection devient trop encombrante et lie les hommes aux routes et aux bases, il est peut-être moins dangereux d’être plus léger mais sur le terrain et imprévisible ; lorsqu’une préparation d’artillerie de plusieurs jours ne permet pas d’obtenir une destruction de l’ennemi, peut-être qu’une préparation de quelques minutes suffira pour obtenir la surprise et être plus efficace, etc. Ce n’est pas toujours vrai mais il faut régulièrement se poser la question.

Comme la quantité, la vitesse est aussi une qualité opérationnelle. Intervenir chirurgicalement sur un blessé en moins d’une heure, réagir à une nouvelle menace, déclencher une opération militaire en quelques jours dans une zone en crise, gérer tout de suite la stabilisation d’un pays après le renversement d’un régime, permettent souvent d’être plus efficace. Les délais dus à un processus de décision complexe ou à des problèmes d’organisation entraînent des coûts supplémentaires humains et financiers. La précipitation peut toutefois être dangereuse, aussi la capacité d’action rapide doit être associée à une connaissance précise de ce qu’il y a à faire, et donc faire appel à un réseau de renseignements, d’expertises, etc.

Nous concevons nos équipements majeurs comme les magasins de confection traditionnels conçoivent leurs vêtements, en anticipant non pas six mois à l’avance mais dix ou quinze ans avant leur emploi et lorsque nous recevons finalement le marteau commandé quinze ans plus tôt nous sommes obligés de raisonner nos problèmes en termes de clous. Pendant ce temps, les gens que nous affrontons achètent sur étagères et utilisent des avions de ligne comme missiles de croisière.

Nous devons enfin nous efforcer de coller aux besoins futurs mais aussi et avant tout aux besoins immédiats. Externaliser certaines fonctions permet de faire des économies immédiates et visibles, mais, on le sait au moins depuis Ronald Coase (1937), engendre aussi des coûts de transaction moins visibles mais qui peuvent être parfois très pénalisants. La société Blackwater a rendu de nombreux services en Irak, elle a aussi largement contribué à la dégradation de l’image des occupants. Au passage, externaliser n’est pas synonyme de privatiser. Quand on retire des capacités de soutien autonomes aux unités de combat, c’est déjà pour elles de l’externalisation. Quand les unités de soutien ont été retirées des divisions israéliennes pour être regroupées dans des bases régionales, cette externalisation a permis de réduire le nombre de personnel de soutien et de faire quelques économies. Le système a fonctionné un peu plus lentement qu’avant mais tant que les opérations restaient très limitées, cela n’a pas porté à trop de conséquences. En revanche, lorsque Tsahal a engagé l’équivalent de l’armée de terre française contre le Hezbollah en juillet 2006, le système a complètement explosé. Plus personne ne savait qui soutenait qui alors que les combats se déroulaient à quelques kilomètres des bases.

La logistique organique de Zara est plus efficace que les bases de soutien de Tsahal et les grandes entreprises qui réussissent ont beaucoup à nous apprendre ou nous réapprendre. 

Hommage à Sir John Keegan



Préface à une future nouvelle édition d'Anatomie de la bataille chez Tallandier.

Publié en 1976, Anatomie de la bataille (The face of battle) est le plus premier et le plus original des ouvrages d’un des plus éminents historiens militaires du XXe siècle. A une époque où l’histoire militaire était largement passée de mode sinon méprisée, John Keegan renouait magistralement avec le genre avec cette étude du phénomène de la bataille à travers trois cas concrets. La tentative était d’autant plus audacieuse que le choix portait sur trois affrontements parmi les plus connus de l’armée britannique, dans une zone assez restreinte du nord de la France et de la Belgique. Ce choix n’était pas anodin. Le fait que ces combats soient considérés très connus permettait de mettre en évidence plus facilement le décalage qui pouvait exister entre un récit partagé par tous et la réalité du champ de bataille. La constance de certains paramètres permettait ensuite de se concentrer sur la variable changeante, à savoir le temps, de manière à pouvoir déceler des constantes ou des tendances lourdes.

Dans une section introductive, Keegan décrit l’histoire de l’histoire des batailles pour montrer combien, depuis la vision des commandants en chefs manipulant des pions anonymes jusqu’aux témoignages individuels des combattants, ces concentrés d’évènements aussi denses que des trous noirs de l’histoire sont difficiles à appréhender dans toute leur complexité humaine. Le récit traditionnel a ainsi toujours tendance à privilégier un acteur ou groupe d’acteurs au détriment des autres qui deviennent pions anonymes et sans autonomie de décision. Il en est ainsi de César, dans La guerre des Gaules, décrivant une opposition stérile des deux masses combattantes dénouée seulement par son intervention personnelle. Inversement, les récits « au ras du sol » de simples combattants sont, au mieux, des visions très parcellaires d’un évènement gigantesque et, au pire, comme Jean-Norton Cru l’a démontré après la Grande Guerre, des déformations outrancières. L’ambition de Keegan est finalement de parvenir à conjuguer les visions « macro » d’un Creasy (le premier à s’intéresser à l’histoire des batailles) ou d’un Delbrück et « microtactiques » d’un Ardant du Picq et d’un Marshall pour parvenir à une peinture globale et réaliste de la bataille. Il s’efforce donc de décrire un jeu d’échecs dont les pièces sont vivantes (et cherchent à le rester) et dont les joueurs-généraux en chef n’ont qu’une vision parcellaire de la situation. Tous, à des degrés divers, sont soumis à la même rationalité limitée empreinte de passions, et la grande force des analyses de Keegan est de pouvoir, à la manière d’un appareil de photographie, réduire ou augmenter la « focale » de son propos pour décrire et associer toutes ces visions.

Pour chacun des trois cas étudiés, Keegan débute par la description du contexte historique, du champ de bataille et du déroulement de la bataille. Le fait que ces combats soient connus du public permet aussi de se concentrer sur le cœur du sujet selon lui : l’interaction des différents acteurs, regroupés le plus souvent par « agrégats » comme les armes (infanterie, cavalerie, etc.) ou catégories émergentes comme les prisonniers ou les blessés. Ce faisant, même s’il évoque cette question dans son chapitre de conclusion, il néglige sans doute le rôle très inégal des hommes au sein de ces mêmes agrégats.

Le premier cas, et peut-être le plus original, est Azincourt. Keegan réunit les rares sources de l’époque pour se livrer à une enquête passionnante des capacités réelles de chaque groupe sur le terrain. Il parvient ainsi à peindre une vision crédible de la bataille à partir du point de vue des archers anglais (à combien portent réellement les grands arcs gallois ?), des chevaliers à pied ou à cheval (une charge est-elle vraiment possible sur un tel terrain ?) puis des prisonniers, de leurs gardiens et enfin des blessés. La taille limitée de cet affrontement le rend plus accessible au lecteur.

Pour Waterloo et la Somme, le problème des sources primaires ne se pose évidemment pas. La description de la bataille cède plutôt la place au ressenti d’acteurs, dont on constate qu’il s’éloignent de plus en plus les uns des autres. Le courage homérique nécessaire aux combats à l’arme blanche fait de plus en plus place à un courage stoïcien où le combattant ne voit plus que très rarement son adversaire et passe son temps à « résister » à la pression psychologique. Cette description de l’individu piégé dans des champs d’affrontement de plus en plus importants sans possibilité ni de fuir ni de combattre directement un ennemi concret est très suggestive. Cette dilatation de l’espace et du temps des combats rend toutefois rend la démarche interactionniste de Keegan plus délicate lorsqu’il s’agit d’embrasser une bataille toute entière. Il aurait été intéressant dans le cas de la Somme de comparer la situation des Britanniques à celle des Français dont l’historiographie oublie souvent qu’ils combattent à leurs côtés et avec beaucoup plus d’efficacité (le 1er juillet leurs pertes sont vingt fois moins lourdes pour des effectifs deux fois moins importants) car ils bénéficient de deux ans d’expérience sur les néophytes de Sa Majesté. C’est un excellent exemple de la capacité d’adaptation de l’homme aux conditions les plus extrêmes.

Dans son chapitre final, Keegan examine le futur de la guerre par « ligne de fuite » des cas concrets qu’il a examiné pour considérer finalement que la pression serait désormais telle sur un combattant toujours fait de chair et de sang que la bataille serait désormais insupportable. Comme toute tentative d’extrapolation et de prospective c’est évidemment la partie la plus vulnérable de l’ouvrage. Outre que l’affrontement paroxysmique qu’il envisageait en Europe n’a plus cours, son idée de l’abolition de la bataille par excès de violence a évidemment été contredite par les faits. Quelques années après la parution d’Anatomie de la bataille, Irakiens et Iraniens s’affrontaient dans des combats qui n’avaient rien à envier à ceux de la Grande Guerre. D’un autre côté, la suprématie militaire occidentale, et surtout américaine, a permis également de réduire la pression sur ses propres combattants, en la reportant sur les adversaires. Les victoires spectaculaires des deux guerres du Golfe en 1991 et 2003, comme la chute des Talibans en 2001 ont été acquises au prix de pertes américaines étonnamment faibles au regard des forces en présence et des enjeux.

Anatomie de la bataille reste, trente cinq après, un livre étonnant et stimulant, fondateur d’une nouvelle et vivifiante école d’ « histoire-bataille » avec des auteurs comme Victor Hanson ou John Lynn aux Etats-Unis ou Hervé Drévillon en France. Il témoigne, pour quelqu’un qui n’a jamais connu le feu, d’une une réelle empathie avec le sort des combattants. Il ne répond pas directement à la question de savoir pourquoi on accepte volontairement de risquer sa vie mais décrit magistralement la manière dont on le fait.

mercredi 1 août 2012

BH-Revue de programmes...par un commentateur anonyme et informé (2/2)


Nous devons remonter un peu dans notre histoire des années 1962/1984 pour en retenir quelques subtilités dont je ne vous donnerai quelque lignes sans rentrer dans le détail de toute cette aventure que nous connaissons tous. Mais simplement pour se remettre dans le contexte des problèmes techniques et des difficultés principales de pilotage inhérent au Mirage III. Certains dictant à d'autres ses choix plus personnels à l'état-major de l'AA et de la Direction des constructions aéronautiques du ministère de la Défense incitant momentanément Dassault à abandonner sa recherche sur la formule delta aux profit d'une commande pléthorique de prototypes divers de Mirage G qui intéressait également notre Marine. D'où a été tiré le F-1 présenté en concurrence du F-16 ce qui lui a fait perdre le marché du siècle ! Pour un retour un peu plus tard de la formule delta améliorée par les commandes de vol électriques et enfin d'un moteur qui pousse 10 tonnes ! Présenté ainsi le monomoteur M-2000 ainsi que le bimoteur Mirage 4000 de ce que l'Armée de l'Air souhaitait toujours mais dont elle aurait à en assurer son développement soit 5 avions de présérie. Ce qui n'était d'ailleurs pas très cher puisque Dassault l'a fait pour un exemplaire sur ses fonds propres en mars 1979. Mais l'AA avait dans ce même temps à financer trois avions nouveaux le M 2000 C, le Mirage F1 et le Jaguar, conçu à l'origine comme un avion école de combat et d’appui léger, il finit par devenir un avion d'appui tactique au poids et au prix sans commune mesure avec sa fiche programme originelle. Ce que bimoteur fût-il, ne nous a pas épargné de se faire descendre par des sam7 et des ZSU de 23 mm au Tchad ! De ces deux avions l'AA n'en avait nul besoin ! Le MIII E amélioré avec ses moustaches et équipé de l'Atar 9k50 aurait tenu sans problème la première ligne jusqu'en 1995. Pour son remplacement d'un appareil M 4000 multirôle supérieur dans tous les domaines au F15 et le M 2000 bien supérieur au F16 ! Multirôles, je le répète, et non pas trois versions actuelles différentes, déclinées des missions mais une seule à l'exemple du Mirage 2000-9 des EAU remplaçant du MIII E. 

Je ne suis pas seul à être persuadé que si Marcel Dassault et toute son équipe avait concentré tous leurs efforts sur le delta remplaçant du MIII E, les 2 prototypes mono M-2000 et bimoteur M-4000 auraient été prêts pour le marché du siècle quitte à voler avec des réacteurs Pratt & Whitney/ et notre oncle Sam aurait dû partager le marché du siècle avec nous ! Il est bien évident que dans ces conditions, le Rafale n'aurait jamais vu le jour et les bureaux d'études auraient eu à se concentrer sur les exportations et le nEURon !
La décision du chef des Armées Valéry Giscard d'Estaing en 1974, sans doute excédé de toutes ces gabegies financières précédentes à pris celle de revenir à la formule la moins chère déjà éprouvée ; celle du delta M2000 C. Ce qui a engendré quelques années plus tard en 1984 la question des remplacements. L'AA avait déjà demandé en 1977 à la Direction des constructions aéronautiques du ministère de la Défense de faire une étude préliminaire sur la succession du Jaguar mais aussi celui de la fonction interception embarquée de la marine puis celle du remplacement des Etendard . Nommé à cette époque avion de combat tactique (ACT).
Depuis le Mirage IIIC réceptionné en 1962 nous souffrions d'un manque de puissance chronique de nos moteurs Snecma Atar 9B de 6 tonnes de poussé avec ses problèmes de jeunesse. Notamment son arbre d'entraînement de la boîte de relais d'accessoires, et l'adjonction d'un circuit de lubrification et d'une régulation de secours pour subvenir aux pannes d'alimentations d'huile. Si les poussées étaient en augmentations sensibles, les mises au point de ses problèmes récurrents nécessita plusieurs années et ce retard ne fût jamais comblé sur les Atar par rapport à la féroce concurrence américaine de Pratt & Whittney et de Général Electric ! Ces soucis valurent à nos valeureux pilotes, dans le meilleur des cas, de recevoir un magistral coup de pied aux fesses de 19g et en récompense, la cravate Martin Baker !

L'aérodynamique particulière de l'aile delta chargée à 260 kg au m² fait que le pilotage est délicat notamment l'incidence que prend l'aile aux « basses vitesses » au décollage mais aussi à l'atterrissage où sa vitesse de décrochage reste très élevée de l'ordre des 155 nœuds pour une approche à 180 et la visibilité vers l'avant nulle. D'autre part les commandes de vol sont durcies artificiellement par tout un système aux prénoms désagréables Amédée, Oscar, Arthur puis l'auto commande Stena que l'on doit à notre camarade Roland Glavany qui a voulu faire léger ! Un virage à 90° c'est les deux mains sur le manche et il faut pousser ! Et attention à ne pas étouffer le réacteur ni de décrocher pour partir en vrille ! Cela devient vite très physique en combat tournoyant pour les petits bras où la moindre erreur ne pardonne pas!

De 1968 à 1984 date de commencement de son retrait jusqu'en 1994, le MIII E est déjà multirôles :  d'interception tout temps, de bombardement, ainsi que la pénétration par le suivi de terrain à très basse altitude sans visibilité, détruisant sur l'axe les radars ennemis à coup de Martel AS30/37, posant à la main l'arme nucléaire tactique 52 et de reconnaissance ( MIII E RD) où nous gagnions souvent le Royal Flush Otan. En tous cas le plus avancé jusqu'aux missions haute altitude à +110000 pieds par l'ajout du moteur fusée SEPR 44 (acide Nitrique + kérosène) de 1500 kg de poussée doublant celle de l'Atar. Où l'on se prend à rêver un instant d'être cosmonaute en scaphandre pressurisé recouvert d'un survêtement de cuir blanc, admirant la rotondité de notre chère petite planète bleue ! Tout ceci grâce à nos ingénieurs, nos pilotes, nos mécanos sans lesquels rien n'était possible qui ont assuré un taux de dispo de 75% et plus en exercice jusqu'à l'échelon 2 des modifications majeures, espaçant ainsi les visites de 300h de vol à 600h ou calendaire 2 ans et les visites moteur de 75h à 200h. Il restera pour beaucoup d'entre nous le meilleur chasseur bombardier, de reconnaissance et de pénétration au monde.

L'abandon momentané de la voilure delta pour n'avoir pas voulu moderniser son aérodynamique dont nous connaissons tous ses points critiques ont été remédié facilement par le programme Astérix sur le Mirage Milan destiné au marché suisse en 1970. Sans retoucher l'aérodynamique de l'aile, l'adjonction simple de 2 surfaces rétractables sous le nez surnommées : «moustaches» permettaient un emport supplémentaire de charge utile de 20% (carburant), de virer encore plus serré, deréduire la distance de décollage de 20% et de diminuer la vitesse d'approche de 20 noeuds augmentant considérablement la sécurité des vols.
Équipé du réacteur Atar 9k 50 d'une tonne de poussé supplémentaire,  je vous laisse imaginer que ce MIIIE était bien le meilleur mondial ! D'ailleurs les suisses ne l'ont retiré du service qu'à partir de 1999 à 2004 pour des F-18 ! (sans moustaches mais équipés de surfaces canards au niveau supérieur des entrées d'air). D'autre part, comble de tout Dassault relance en 1981 le Mirage III NG muni de commandes de vol électriques, d'un canard important et d'un ravitaillement en vol !
Valéry Giscard d'Estaing aura eu le choix de ne pas choisir, mais il aurait pu aussi choisir le NG !

Seul le Phantom F-4 de l'USAF, biplace biréacteur pesant 50% de plus en 2 versions spécialisées pouvait faire mieux ; ce qu'il a démontré au Vietnam en interception et pénétration basse altitude, et encore pas dans tout notre domaine de vol.

L'AA dans sa gabegie des commandes de prototypes avait toujours souhaité un bimoteur, facile à piloter, plus sécurisant car il n'était pas exceptionnel de perdre annuellement quelques pilotes dont le taux d'attrition pour 10000h de vol avoisinait les 0,92 pour les Mirage III et V et de (0,55 pour les Mirage F-1, ce que nous avons déterminé bien plus tard).  C'est donc pour ces raisons citées plus haut que le F-1 d'une architecture aérodynamique classique a été conçu en 1963 mais surtout et en premier lieu pour répondre au cahier des charges Otan d'un chasseur bisonique de pénétration simple et léger développé sur les fonds propres Dassault qu'il destinait alors à cette compétition.

En 1966 notre chef des Armées, Charles de Gaulle, annonce notre retrait de l'organisation militaire intégrée. Comme par hasard ! Les demandes de l'AA s'orientent alors vers un avion d'interception à capacité secondaire de pénétration. Le bureau d'études de Dassault travaillait alors sur le Mirage F3 (monoplace, monoréacteur Pratt & Whitney/Snecma TF 306) pour l'Otan. Qui reste à l'état de prototype notamment parce que le retrait de l'organisation militaire intégrée entraîne de facto une révision de la politique d'équipement et que le chef a décidé : « pas de matériels US sur la production militaire française ».. A la suite de ces annulations successives, Dassault n'a pas de successeur pour son MIII. Devant cette impasse, et pour assurer son avenir au cas où le programme commandé par l 'AA d'avions à flèche variable Mirage G (F-1 mono et bimoteur F-2 puis d'une voilure fixe à 70°F-3) seraient également abandonnés. Marcel Dassault décide de lancer la réalisation d'un «nouveau prototype», dérivé du F3 dont je crois que l'aile était déjà construite.  Le Mirage F-1, au fuselage plus petit que les F-2 et F-3 intégrant le Snecma Atar 9k50. Les essais en vol se poursuivent quand, en mai 1967, au cours d'un vol à basse altitude et à grande vitesse, les 2 gouvernes de profondeur du Mirage F-1 01 s'arrachent à la suite d’un phénomène de vibration destructeur appelé dans notre jargon le « flutter». René Bigand, chef pilote, vient de mourir. Malgré tout, la commande des trois avions de présérie, Mirage F-1 à réacteur Atar 9 K 50, estnotifiée cette année-là. «Une nouvelle fois, les vœux de l'état-major sont exaucés avant d'avoir été formellement exprimés» ! (Bruno Revellin-Falcoz, chef des services techniques de la recherche chez Dassault) Le Mirage F-1 est adopté, commandé par l'AA ? D'un avion pas réellement destiné à l'AA qui plus est dont nous n'avons pas besoin ! Il est donc arrivé en escadron en 1974 équipé d'un réacteur Atar 9K50 d'une poussé de 7,2 tonnes. Il est toujours opérationnel au sein d'un escadron de reconnaissance et sera retiré en 2014 soit 22 ans de service ! En l'analysant d'un peu plus près, il possède une charge ailaire très élevée de 400 kg au m² plus prédestinée à la pénétration basse altitude et grande vitesse correspondant bien au cahier des charges Otan et vérifié par les essais ! Dans le combat en altitude en virage serré sous fort facteur de charge dans le plan horizontal l'Atar 9 K50 manque de puissance de plus de 2 tonnes de poussée ! Dassault parfaitement conscient du problème monta le nouveau M-53 sur le F-1 devant les nouveaux enjeux internationaux du marché du siècle qui se profilaient mais là encore le rapport poussée /masse de 0,85 restait très inférieur à la concurrence américaine qui était supérieure à 1 du MDD F-16 monoréacteur qui fit son premier vol en décembre 1976. Le marché du siècle était perdu ! Retour à la formule delta.