Tom Mays Doctorant en musicologie, Université Paris 8 Vincennes-Saint-Denis

Parcours professionnel

     Originaire de la Californie, depuis 30 ans Tom Mays est compositeur de musiques numériques et mixtes pour instruments, dispositifs en temps réel, supports électroacoustiques et nouvelles lutheries électroniques. Il crée des concerts, des installations interactives, de la musique pour danse, théâtre et film – ses œuvres étant commandées et soutenues par divers studios, organisations et ensembles en France et à l’international tels La Muse en Circuit, Césaré, le Cirm, Fabrique Nomade, Didascalie.net, Radio France, Voix de Stras’ et Les Percussions de Strasbourg. Il est aussi improvisateur électronique, jouant avec des musiciens tels Pascal Contet, Carol Robinson, et Xavier Rosselle. En plus de la composition, il développe des patches en temps-réel, donne de nombreux séminaires, masterclasses et ateliers, participe à des jurys de composition, et mène des recherches sur différents aspects de la musique en temps réel, publiant des articles et participant aux colloques internationaux.

     Tom Mays se forme d'abord à la technologie électronique en Californie au milieu des années 80, décrochant un poste de technicien électronique recherche & développement dans la Silicone Valley chez Lockheed Missiles & Space Co. avant de poursuivre des études universitaires en composition instrumentale et électroacoustique à l'Université de San José avec le professeur Allen Strange, obtenant un Bachelor of Arts en 1990. Ensuite, il s'installe en France où il rencontre Luc Ferrari et travaille à la Muse en Circuit, puis collabore avec Christian Sebille à la création du Centre National de Création Musicale Césaré en 1992 - composition pour concerts, radio, film-vidéo, théâtre, danse, expositions et installations, enseignement dans diverses écoles et structures dans la région, installation et suivi technique du studio. A partir de 1994 il entre à l'Ircam où il travaille pendant une dizaine d'années en tant que Réalisateur informatique musicale (RIM) dans l'équipe de production - avec Michel Portal (concert Radio France/Ircam), Michaël Lévinas (opéra Montpellier/Mulhouse, concert Cité de la Musique, concert Villa Medicis), Philippe Fénelon (opéra Paris-Bastille), Luca Francesconi (concert Ircam), Ivan Fedele (concert Ircam), Luis Naón (concert Ircam), Georges Aperghis (spectacle Ircam), Jean-Luis Agobet (concert Ircam), Martin Matalon (tournée France, Angleterre, Belgique). A partir de 2001 il obtient un poste de professeur de Nouvelles technologies appliquées à la composition au Conservatoire national supérieur de musique de Paris (CNSMDP) aux côtés de Luis Naón où il restera jusqu'en 2015 formant compositeurs et ingénieurs son sur les outils électroacoustiques en temps réel. Il dispense également de 2010 à 2012 des cours de design sonore, de réalisation musicale et d'interprétation électroacoustique dans le département Musique et Métiers du Son à l'Université Paris Est Marne-la-Vallée. Voulant valoriser et approfondir ses recherches, développements et créations avec les outils d’informatique musicale en temps réel, il reprend ses études et obtient un Master en Arts puis il poursuit un Doctorat en Musique et Musicologie - les deux auprès d'Horacio Vaggione à l'Université Paris 8. Il obtient le Master en 2010, et le Doctorat est en cours. En 2013 il obtient un poste de Professeur d'Enseignement Artistique (PEA) au Conservatoire et Académie Supérieure de Musique de Strasbourg à la Haute Ecole des Arts du Rhin, qu'il occupe jusqu'à présent. Il y a mis en place la classe de Création et interprétation électroacoustique dont il est le responsable. En 2015 il rejoint le GREAM en tant que membre doctorant, en participant également à l'enseignement du Master Musiques électroacoustiques et arts du numérique.

     Ses projets de recherche et de développement sont toujours liés à son travail de création. Au début des années 90 il s'intéressait aux contrôles algorithmiques en temps réel de la synthèse et du son échantillonné – avec séquenceurs MIDI et plus tard avec le logiciel Max qui était alors tout récent. Il créa ainsi installations sonores, improvisations et compositions par un aller-retour de processus combinant algorithmes et sons fixés. Quelques compositions utilisant ces techniques incluent : Windows of Audibility pour violoncelle et ordinateur en direct jouant synthèse MIDI, Ça pour électronique live et théâtre, Walking out of Time pour sons algorithmiques fixés, Stages - sons fixés pour la danse, ou bien Comme des Fourmis pour algorithme et synthèse FM. Son arrivée à l'Ircam en 1994 lui permit de s'immerger dans le temps réel audio et il commença de longues années de développement de dispositifs de traitement, d'analyse et de synthèse sur le plateforme Max/FTS spécifique à l'Ircam, et plus tard sur Max/MSP. Il se focalisa sur la programmation « d'environnements » de création en temps réel qui ont amené plus tard aux recherches et réalisations de patch/applications tels TapeMovie en 2010 ou plus récemment un patch/environnement qui s’appelle CRT (Composition in Real Time) qu’il développe depuis 2015. Il créa beaucoup de projets incluant des traitements et/ou une synthèse et échantillonnage en temps réel ou fixé comme le concert spectacle Le Temps d’un Eclair, la musique pour planétarium L’instant, Ebullitions pour saxophone et temps réel, ou bien Identités pour orchestre d’élèves et traitements. Au début des années 2000 de nouveaux outils de traitement d’image en temps réel devinrent accessibles au sein d’environnements audio et MIDI, ouvrant une longue période d’expérimentations et de recherches sur les relations en temps réel entre le son et l’image, et avant de se poursuivre au niveau de la conception d’espaces interactifs et d’instruments électroniques à partir des analyses d’images - le “camera tracking”. En 2002 il est lauréat de l’aide du CNC-DICREAM pour le projet Musique, Ordinateur et Vidéo avec Mireille Jacquesson - recherches entre l’image et la musique en temps réel. Ensuite, il a fait une première installation interactive multi-espace en 2003 qui s’appelait Feedback ; il créa en 2005 une composition multimédia interactive pour “méta-instruments” - Les uns les autres avec un aller-retour entre son-qui-génère-de-l’image et l’image-qui-génère-du son, le tout contrôlé par instruments électroniques. En 2005 il créa Acousmeaucorps, installation interactive de jeux musical et sonore spatial qui est devenu un noyau d’expérimentations sur les rapports de mouvement, corps, espace et geste durant au moins 6 ans (http://tmays.free.fr/proj/05/acousmeaucorps/index.html). Pour lister quelques projets de création parmi bien d’autres utilisant ces moyens : Espace Inutile 1 - installation multi-caméra (2006), Espaces Indicibles - dispositif d’interaction et musique en temps réel pour le théâtre (2007), Profondeur de Champ spectacle interactive musical (2008) et My space pour danse avec le chorégraphe Olivia Grandville en tournée durant 2008 comprenant une date au Centre Pompidou. A partir de 2010, il se tourna sur le geste instrumental électronique avec à la fois plusieurs projets et recherches avec l’instrument électronique le Karlax (http://www.karlax.com) et avec des instruments acoustiques augmentés par des traitements en temps réel. Durant cette période il soutient son Master à Paris 8 sous la direction de Horacio Vaggione, Traitements temps réel et écriture : vers un lexique musical de divers traitements sonore de base. A travers ce mémoire de Master et le travail de doctorat qui a suivi, il recherche les techniques d’écriture de traitements sonores en établissant plusieurs catégories comme le temps, l’amplitude, la hauteur, le timbre, l’espace et la matière. Il entame une séries de compositions pour instrument et une seule catégorie de traitement qui s’appelle Le Patch Bien Tempéré : I pour vibraphone et délais, II pour saxophone et modulateurs en anneau, III pour flûte / harmoniseurs et Karlax / synthèse, et puis IV pour bendir et filtres. Il publie plusieurs articles sur les techniques de ses pièce, ainsi que sur une proposition de notation musicale pour l’instrument gestuel le Karlax - pour des colloques français et internationaux tels les Journées d’Informatique Musicale ou New Interfaces for Musical Expression. En 2018 il créa une pièce pour 4 voix et temps réel, Nonsense, et entame un projet de recherche et création d’instruments de percussion augmentés en collaboration avec les Percussions de Strasbourg et un première dispositif d’improvisation structurée, Unvoiced.

Thèmes de recherches

  • Contrôles algorithmiques en temps réel de la synthèse et des structures musicales
  • Environnements de traitements, synthèse et analyses sonores interactives
  • Lutherie électronique gestuelle
  • Instruments acoustiques augmentés
  • Traitements en temps réel et écriture

Publications

Musées de la Ville de Strasbourg
Opéra National du Rhin
Conservatoire de Strasbourg
CDMC