Dans cette interview, le Dr Andrew Webb du Walter and Eliza Hall Institute (WEHI) décrit comment son laboratoire utilise des techniques basées sur la spectrométrie de masse pour comprendre le rôle des modifications post-traductionnelles dans les maladies humaines.
Sommaire
Sur quels domaines vous concentrez-vous dans votre laboratoire au Walter and Eliza Hall Institute?
Nous sommes l'un des principaux instituts de recherche médicale en Australie. Je dirige le laboratoire de technologie de plateforme de protéome. En tant qu'institut, la plupart de nos recherches se concentrent sur le cancer, les troubles immunitaires et les maladies infectieuses. Plus récemment, cependant, notre objectif de recherche s'est élargi pour inclure le développement sain et le vieillissement.
Crédit d'image: SciePro / Shutterstock.com
L'institut compte 93 laboratoires avec plus de 1 000 employés et couvre un large éventail de maladies. Le nombre d'employés signifie que nous devons avoir un débit raisonnablement élevé. Avec autant de personnel, il était important de réfléchir à notre infrastructure et à la manière dont nous pourrions maximiser nos résultats.
L'une des choses qui a émergé au fil du temps dans mon laboratoire est l'idée que nous devons détecter les protéoformes; les formes de protéines qui existent lorsque vous tenez compte des modifications post-traductionnelles (PTM) et d'autres effets post-traductionnels.
Nous sommes fortement investis dans la compréhension des rôles physiologiques des protéoformes et dans le développement de techniques pour mieux les détecter. Pour le moment, nous utilisons des spectromètres de masse, mais nous savons que nous ne voyons que la pointe de l'iceberg. Bien que ces instruments soient incroyablement sensibles, la plage dynamique est le principal facteur limitant, car nous savons que la plage dynamique qui existe dans les cellules et dans de nombreux biofluides que nous analysons est beaucoup plus grande que ce que nous pouvons détecter.
Pourquoi est-il important de comprendre les effets des modifications post-traductionnelles (PTM)?
La plupart des laboratoires de recherche médicale utilisent une protéomique ascendante et se concentrent généralement sur son utilisation de manière centrée sur le gène (quantification de la base des protéines). Dans notre laboratoire, comme nous travaillons avec de nombreux groupes de signalisation cellulaire, de nombreuses protéines avec lesquelles nous travaillons sont modifiées après la traduction et il est important pour nous de surveiller ces changements de PTM dans différentes conditions. Nous pensons généralement aux PTM dans le contexte de la protéine, qui s’incarne dans cette idée de «protéoformes», où la molécule nous intéresse vraiment dans la version fonctionnelle du produit génique chimiquement modifié.
Alors que nous pouvons détecter environ 11 000 à 13 000 produits géniques qui sont exprimés dans n'importe quelle cellule à un moment donné, des modifications post-traductionnelles peuvent se produire grâce à l'édition d'ARN ou au codage de différents SNP, à la régulation transcriptionnelle, qu'il s'agisse d'une troncature, d'un clivage par des protéases, ou une modification chimique telle que la phosphorylation. Il existe également plus de 107 modifications post-traductionnelles endogènes connues. La complexité de ce qui pourrait exister dans ces échantillons de protéines est astronomique. Cela dit, je prévois que cela est probablement de l'ordre de 10 millions de protéoformes pour une cellule donnée à tout moment.
Dans mon laboratoire, notre objectif est de creuser profondément et de nous concentrer sur autant de ces protéoformes à base de PTM que possible. Si nous pouvons faire des mesures à un niveau très profond, je pense que nous pouvons commencer à corréler les protéines modifiées post-traductionnellement avec certains phénotypes. C'est aussi proche que possible de comprendre pourquoi nous voyons des différences dans les phénotypes.
Quelle est la meilleure approche pour analyser les protéoformes?
L'une des meilleures approches pour examiner ces protéoformes et les différentes formes de protéines qui peuvent exister consiste à analyser des protéines intactes. C'est quelque chose sur lequel nous avons travaillé il y a quelques années lorsque nous avons développé une méthode pour nettoyer les protéines de manière très efficace et à haut débit.
Nous utilisons une perle paramagnétique comme réactif de nucléation pour précipiter nos protéoformes. Si vous êtes familier avec l'approche SP3 à base de résine, ceci est une interprétation de cela, mais avec une étape d'élution supplémentaire. Pour ce faire, nous avons pris des connaissances dans le domaine de l'agrégation des protéines et incorporé de l'acide formique pour extraire les protéines nettoyées de manière très efficace et impartiale. Lorsque vous faites cela, vous vous retrouvez avec un moyen très robuste et hautement reproductible de libérer des protéines intactes pour l'analyse de la SEP.
Le signal MS1 de la séparation LC fournit une mesure de toutes les protéines intactes que nous pouvons détecter dans un seul fusil de chasse. En moyenne, d'un seul coup, nous pouvons détecter environ 2 000 formes différentes de protéines, révélant une incroyable gamme d'hétérogénéité des produits géniques.
Nous avons constaté qu'en moyenne, les protéines existent sous environ huit formes différentes (formes PTM). De là, lorsque nous utilisons la protéomique de bas en haut, nous savons que ce que nous regardons est cet instantané très haut de l'iceberg des protéines qui existent vraiment. Nous savons qu'il y a beaucoup plus d'hétérogénéité fonctionnelle au sein des formes protéiques que ce que nous apprécions actuellement sur le terrain.
S'il y avait des moyens d'approfondir cela, ce serait fantastique! Nous savons que ce n'est qu'un début car lorsque vous pensez à analyser des protéines intactes, l'intensité du signal est très distribuée à travers les isotopes et les états de charge, ce qui signifie que notre plage dynamique est limitée et que nous avons de sérieuses limitations sur notre capacité à creuser en profondeur. dans le protéome en utilisant cette approche.
Crédit d'image: Petarg / Shutterstock.com
Comment pouvez-vous appliquer l'analyse des protéoformes à l'étude des états pathologiques chez l'homme?
En protéomique traditionnelle, lorsque nous cartographions les peptides en protéines, nous avons tendance à perdre beaucoup d'informations, ce qui tend à supprimer ou à ignorer les peptides aberrants au cours du processus d'analyse. Ce que nous essayons de faire maintenant dans notre recherche, c'est de maintenir ces peptides, même au point de faire des statistiques sur le niveau des peptides entre les différentes questions que nous posons quantitativement.
Lorsque nous faisons cela, l'instrumentation devient très importante. Au cours des quatre ou cinq dernières années, nous avons également travaillé sur la conception expérimentale, en obtenant les bons contrôles pour un échantillon donné et en faisant suffisamment de répétitions pour faciliter la quantification du niveau des peptides. Un autre facteur important ici est de réfléchir très attentivement au protéome que vous souhaitez enrichir. Imaginez que n'importe quel protéome donné ressemble à un iceberg et avec la SEP, vous ne pouvez voir que la pointe de l'iceberg. Il devient alors très important de réfléchir très attentivement à l'endroit où vos signatures et informations biologiques sont susceptibles de se trouver, c'est-à-dire quelle partie du protéome pouvez-vous enrichir pour voir les signatures que vous essayez d'identifier. Il existe de nombreuses façons de se plonger profondément dans des parties spécifiques des protéomes, en particulier si vous avez des indices sur où chercher dans les travaux précédents. Par exemple, une façon courante de creuser dans ces icebergs protéomiques consiste à utiliser l'enrichissement PTM. Ceci peut être réalisé au niveau de la protéine ou au niveau du peptide, et est souvent effectué pour la phosphorylation et d'autres modifications de la signalisation cellulaire.
Dans quelles applications voyez-vous la protéomique et la spectrométrie de masse avoir le plus de potentiel?
La protéomique est un outil de découverte incroyablement puissant et dynamique et son potentiel n'est limité que par la créativité des chercheurs. Nous avons beaucoup expérimenté la conception expérimentale. Il y a tellement de domaines différents dans lesquels nous pouvons appliquer ces techniques, et pour moi, l'un des domaines les plus passionnants est d'explorer comment la spectrométrie de masse peut aider la recherche médicale. J'ai personnellement un intérêt à appliquer ces techniques pour la découverte de médicaments et à comprendre les aspects fondamentaux de la biologie.
En ce moment, nous faisons beaucoup d'échanges hydrogène-deutérium, interactomique, protéomique quantitative globale et analyse de la surface cellulaire. Plus récemment, cependant, nous avons commencé à chercher à découvrir des biomarqueurs cliniquement pertinents.
Cet intérêt plus récent pour les biomarqueurs cliniques a été motivé par le développement du timsTOF Pro, où la stabilité à long terme inégalée de son signal est essentielle. Nous n'avons encore vu cette capacité sur aucun autre instrument à ce jour, où nous pouvons potentiellement faire fonctionner l'instrument pendant six à 12 mois, sinon au-delà, sans rien de plus qu'un nettoyage capillaire. Je crois vraiment que c'est probablement l'une des avancées récentes les plus fondamentales dans le domaine de la SEP qui aura un impact significatif sur l'espace des biomarqueurs cliniques.
Existe-t-il des domaines d'investigation en protéomique qui pourraient bénéficier de nouvelles méthodologies?
Je pense que la protéomique est trop axée sur la quantification centrée sur le gène, en utilisant l'hypothèse qu'un seul gène = une seule protéine dans notre analyse quantitative. Nous digérons les protéines et les peptides, identifions les spectres, puis travaillons à reculons à partir de là. Ce que nous cartographions vraiment ici, ce sont les gènes et non les protéoformes. Je pense que le potentiel de perdre des informations en passant par les étapes traditionnelles d'analyse centrée sur le gène est particulièrement important pour tant de projets sur lesquels nous travaillons et nous devons être beaucoup plus centrés sur la protéoforme.
Dans mon groupe, nous continuerons à travailler vers des approches centrées sur les peptides, où les protéoformes représentatives peuvent être mesurées et quantifiées par leurs peptides modifiés uniques.
Comment l'instrumentation affecte-t-elle le succès des études de protéoforme?
Les implications pratiques de cette méthode axée sur les peptides sont que la quantification peut être assez difficile. La décision concernant le type d'instrument que vous utilisez et l'infrastructure que vous en utilisez est donc très importante. Quelque chose que nous avons remarqué il y a plusieurs années était l'instrument Impact II de Bruker. Nous l'avons trouvé incroyablement rapide et très, très sensible.
La transmission ionique que nous avons vue était incroyablement efficace. Nous avons vu des signaux incroyables sur cet instrument qui nous ont impressionnés par rapport aux autres plates-formes que nous utilisions à l'époque.
L'Impact II était également incroyablement robuste, nous permettant d'injecter du plasma pendant des semaines avec une préparation d'échantillons appropriée, mais sans aucune dégradation du signal. La recherche a permis à Impact II de devenir rapidement l'instrument incontournable de notre laboratoire pour les études longitudinales. Cet instrument nous a permis de commencer à développer l'approche basée sur les peptides.
Crédit d'image: Kateryna Kon / Shutterstock.com
Y a-t-il des limites aux instruments extrêmement sensibles que vous utilisez dans vos recherches?
L'une des choses qui nous a surpris lorsque nous avons commencé à travailler avec l'Impact II était que nous avions une meilleure quantification. La vitesse et la sensibilité accrues de cet instrument ne se sont pas traduites par plus d'identifications. C'est quelque chose qui nous a d'abord confondu.
En comparant notre plateforme MS existante avec notre Impact II, nous identifierions beaucoup plus de fonctionnalités. Même lorsque nous avons exécuté un gradient plus court, il y avait une augmentation significative des caractéristiques mesurées. Cependant, cela ne s'est pas nécessairement traduit par plus d'identifications. Ces instruments sont si sensibles, nous avons donc vu beaucoup plus de précurseurs coéluer.
Nous avons réalisé que plus vous creusez, plus vous voyez de fonctionnalités. Cela est dû à une augmentation exponentielle des fonctionnalités au niveau inférieur. Plus vos instruments sont sensibles, plus nous voyons de complexité dans l'échantillon. Je crois que cela place des limites fondamentales à ce qui peut être identifié dans une seule analyse d'un échantillon donné en raison de peptides co-éluant isobares proches. Cette limitation que nous avons identifiée dépend du matériel et se produit que vous fonctionniez en mode d'acquisition dépendant des données ou indépendant.
Sur un autre front, l'efficacité de l'instrument pour mesurer l'échantillon est également importante. Si vous considérez les échantillons comme un flux d'ions entrant dans l'instrument, tous les modes d'analyse actuels qui existent (y compris les stratégies dépendant des données (DDA) et d'acquisition indépendantes des données (DIA)) n'utilisent qu'une fraction du faisceau d'ions entrant , et je vois cela comme une inefficacité significative.
En particulier, avec des instruments de piégeage tels qu'un orbitrap, le temps de piégeage pour un faisceau de signal à haute concentration pour le nanoflow ne piège qu'environ une milliseconde d'ions pour un balayage de 100 ms, laissant la plupart des ions s'écoulant dans les déchets. De même, sur les Q-TOF, chaque fois que vous effectuez un événement d'isolement, vous excluez le reste du faisceau ionique. Ainsi, pour la plupart des plates-formes MS traditionnelles, la plupart de votre temps est consacré à mesurer seulement un très faible pourcentage de vos ions possibles. Même avec des approches indépendantes des données, vous utilisez une partie légèrement plus large du faisceau ionique avec le quadripôle, ce qui vous donne un morceau légèrement plus grand pour le faisceau ionique, mais cela finit toujours par être une petite fraction; jusqu'à quatre ou cinq pour cent du faisceau d'ions à la fois. C'est une énorme quantité d'informations potentielles que vous jetez dans le vide et que vous n'utilisez pas du tout.
Enfin, une autre limitation des stratégies d'acquisition indépendantes actuelles est le temps de cycle relativement lent qui est nécessaire pour parcourir toute la gamme de masse. Il faut beaucoup de temps à l'instrument pour acquérir réellement ces données de manière globale. Vos temps de cycle pour revenir à cette même fenêtre d'isolement pour obtenir votre prochain ensemble de données peuvent aller de deux à quatre secondes. Généralement, il est plus proche de quatre secondes avec la plupart des stratégies d'acquisition indépendantes des données.
Comment pensez-vous que les modes d'acquisition de données peuvent être améliorés?
Avec la chromatographie nanoflow à gradient court, les largeurs de pic sont bien dans la fenêtre de cycle de quatre secondes mentionnée ci-dessus, vous aurez donc des pics qui vont et viennent avant que vous n'ayez eu la chance de les détecter.
Cela devient particulièrement évident lorsque vous commencez à penser à des gradients encore plus courts pour augmenter considérablement le débit de l'échantillon. Alternativement, obtenir une couverture approfondie en fractionnant les échantillons, mais faire un nombre plus élevé de gradients plus courts est quelque chose que nous travaillons certainement.
Il y a quelques années, Joshua Coon a avancé un argument selon lequel, plus que jamais, la protéomique a besoin d'une meilleure chromatographie. Je crois que le plus gros problème est que nous avons probablement atteint un état de rendement décroissant des nouveaux instruments, c'est-à-dire que la meilleure chromatographie et la meilleure sensibilité des instruments signifient vraiment que nous sommes susceptibles de voir des peptides de co-élution isobares plus proches qui empêchent des identifications précises et précises des mesures .
Avec les instruments actuels, je ne vois aucun moyen de contourner cela. Nous avons examiné cela de différentes manières en termes d'essayer de démêler les identifications des spectres chimériques, mais dès que vous commencez à ajouter des multiples de peptides et à les co-fragmenter, ils deviennent assez difficiles. C'est également un problème pour tous les modes d'acquisition indépendants des données.
Cependant, je crois qu'avec la mobilité ionique, l'ajout d'une étape orthogonale de séparation pour augmenter la résolution effective de l'instrument a un potentiel très élevé pour nous aider à atténuer cela et à creuser plus profondément dans les protéomes.
Crédit d'image: Urfin / Shutterstock.com
Pourquoi la mobilité ionique (IMS) n’est-elle pas disponible sur tous les spectromètres de masse?
Cela se résume à la complexité, aux pertes d'ions et au cycle de service inférieur inhérent lorsque vous placez un appareil IMS à l'avant d'un spectromètre de masse.
Pour moi, l'appareil TIMS est une technologie incroyablement révolutionnaire et c'est probablement le développement d'instrument le plus excitant que j'ai vu dans ma carrière à ce jour. Sa taille compacte lui permet de s'asseoir sur le devant d'un instrument, de maintenir une empreinte raisonnable qui est toujours compatible avec la plupart des laboratoires, et il possède une électronique incroyablement stable fournissant une mesure incroyablement robuste dans le temps. De plus, cette dimension supplémentaire de l'information augmente la résolution efficace, ce qui simplifie le problème de complexité de l'échantillon auquel j'ai fait référence plus tôt, et enfin il y a quelques avantages assez impressionnants en raison de sa fonction de capture.
Les pertes d'ions vont se produire dans n'importe quel IMS où vous les piégerez et les exposerez à un flux de gaz, mais ce que vous obtenez dans ce nouvel appareil, le timsTOF Pro, est un énorme gain de sensibilité.
L'autre avantage significatif est que nous ne coupons aucun des faisceaux d'ions. Son cycle de service est proche de 100%, l'accumulation de tous les ions entrants a un énorme potentiel, garantissant que nous en échantillonnons autant que possible.
Que souhaitez-vous réaliser en maximisant le nombre d'ions entrants?
Profitant de cette capacité à maximiser ce faisceau ionique entrant et à utiliser cette séparation orthogonale pour une interrogation plus approfondie des protéomes a certainement commencé à être développé avec d'autres groupes qui travaillent sur des approches similaires. Par exemple, avoir la capacité de mieux faire correspondre les peptides et leur mobilité associée à leurs ions fragments entre les essais individuels est un avantage significatif.
Au début, nous avons examiné la capacité des instruments à tout fragmenter dans le flux ionique entrant et à voir ce que nous pouvions faire correspondre à MS2 dans ce processus. C'était un défi de taille, mais le véritable avantage de le faire est qu'en ajoutant de nombreuses trames MS2, vous accumulez beaucoup plus de signaux pour vos ions fragmentés. C'est un moyen beaucoup plus sensible d'extraire plus d'informations MS2. dia-PASEF mène désormais cette approche. L'une des choses qui nous a impressionnés lorsque nous avons commencé à examiner nos données était leur fidélité et la richesse de la fragmentation MS2. Dans l'ensemble, cela vous donne un rapport signal / bruit incroyable car vous additionnez de nombreux événements MS2 et prenez les ions qui ne correspondent qu'à votre précurseur et ne prenez pas d'ions se chevauchant.
Dans quels autres domaines pensez-vous que votre ligne de travail est accélérée?
La stabilité des valeurs de CSC va certainement faciliter de meilleures approches analytiques à l'avenir. C'est très important pour nous; la capacité de pouvoir compter sur ces valeurs de surface en coupe transversale pour les mesures que nous faisons. Ils vont être importants pour étendre cette idée de marquage de masse précis, que j'appelle le marquage 3D précis. C'est crucial, car je pense que cela ouvrira la possibilité de développer de nouveaux outils et logiciels qui nous permettront non seulement de creuser profondément dans les protéomes, mais de mesurer avec précision les caractéristiques et les peptides que nous devons mesurer à travers de très grandes cohortes d'échantillons. Nous avons vraiment hâte de voir ce que nous pourrons générer à l'avenir.
Des valeurs CCS précises aideront-elles également à réaliser des applications cliniques?
Avoir une mesure CCS précise va être extrêmement utile lorsque vous avez des échantillons très complexes. De plus, sa stabilité nous permettra d'augmenter vraiment la précision de ce que nous pouvons faire correspondre course à course. Nous pensons que cela va être extrêmement important pour nos applications cliniques.
Ces approches ne font que prolonger les idées développées au PNNL par Richard Smith et son groupe au fil des ans. Ils ont mené cette idée de marquage de masse précis en utilisant le précurseur lui-même comme fonction de correspondance et en l'identifiant sur plusieurs séries. Maintenant que nous avons une nouvelle plate-forme qui peut permettre une véritable correspondance 3D, il est passionnant de participer au développement des idées, des algorithmes et des logiciels de notre propre laboratoire.
Où les lecteurs peuvent-ils trouver plus d'informations?
À propos du Dr Andrew Webb
Andrew Webb possède plus de 15 ans d'expérience dans les domaines des sciences de la vie et de la protéomique. Andrew a rejoint le Walter and Eliza Hall Institute (WEHI) en 2011 pour développer les capacités de spectrométrie de masse et de protéomique de l'institut.
Avant de rejoindre WEHI, Andrew a été formé dans divers domaines, notamment la biochimie, l'immunologie et la virologie, en mettant l'accent sur l'interfaçage de la technologie haut de gamme avec la recherche médicale.
Veuillez noter: Les produits décrits ici sont uniquement destinés à la recherche. Ils ne sont pas approuvés pour une utilisation dans les procédures de diagnostic clinique.
À propos de Bruker Daltonics
Découvrez de nouvelles façons d'appliquer la spectrométrie de masse aux défis analytiques les plus urgents d'aujourd'hui. Des innovations telles que la mobilité des ions piégés (TIMS), les faisceaux intelligents et les lasers à balayage pour l'imagerie MALDI-MS qui offrent une fidélité fidèle des pixels, et la technologie eXtreme Resolution FTMS (XR) capable de révéler les signatures isotopiques à structure fine (IFS) poussent l'exploration scientifique vers de nouveaux sommets . Les solutions de spectrométrie de masse de Bruker permettent aux scientifiques de faire des découvertes révolutionnaires et d'approfondir leurs connaissances.