Method Article
Ce protocole fournit une approche de l’optimisation de la formulation par rapport aux facteurs d’étude de mélange, continus et catégoriels qui minimise les choix subjectifs dans la construction de la conception expérimentale. Pour la phase d’analyse, une procédure d’ajustement de modélisation efficace et facile à utiliser est utilisée.
Nous présentons une approche de style Quality by Design (QbD) pour optimiser les formulations de nanoparticules lipidiques (LNP), visant à offrir aux scientifiques un flux de travail accessible. La restriction inhérente à ces études, où les rapports molaires des lipides ionisables, auxiliaires et PEG doivent totaliser jusqu’à 100%, nécessite des méthodes de conception et d’analyse spécialisées pour tenir compte de cette contrainte de mélange. En nous concentrant sur les facteurs lipidiques et de processus couramment utilisés dans l’optimisation de la conception LNP, nous fournissons des étapes qui évitent bon nombre des difficultés qui surviennent traditionnellement dans la conception et l’analyse d’expériences de processus de mélange en utilisant des plans de remplissage d’espace et en utilisant le cadre statistique récemment développé de modèles d’ensemble auto-validés (SVEM). En plus de produire des formulations optimales candidates, le flux de travail construit également des résumés graphiques des modèles statistiques ajustés qui simplifient l’interprétation des résultats. Les formulations candidates nouvellement identifiées sont évaluées avec des cycles de confirmation et peuvent éventuellement être menées dans le cadre d’une étude de deuxième phase plus complète.
Les formulations de nanoparticules lipidiques (LNP) pour les systèmes d’administration de gènes in vivo impliquent généralement quatre lipides constitutifs des catégories des lipides ionisables, auxiliaires et PEG 1,2,3. Que ces lipides soient étudiés seuls ou simultanément avec d’autres facteurs autres que le mélange, les expériences pour ces formulations nécessitent des conceptions de « mélange » parce que - étant donné une formulation candidate - l’augmentation ou la diminution du rapport de l’un quelconque des lipides entraîne nécessairement une diminution ou une augmentation correspondante de la somme des rapports des trois autres lipides.
À titre d’illustration, il est supposé que nous optimisons une formulation LNP qui utilise actuellement une recette définie qui sera traitée comme la référence. L’objectif est de maximiser la puissance du LNP tout en visant secondairement à minimiser la taille moyenne des particules. Les facteurs d’étude qui sont variés dans l’expérience sont les rapports molaires des quatre lipides constitutifs (ionisable, cholestérol, DOPE, PEG), le rapport N:P, le débit et le type de lipide ionisable. Les lipides ionisables et auxiliaires (y compris le cholestérol) peuvent varier sur une gamme plus large de rapports molaires, 10-60%, que le PEG, qui variera de 1 à 5% dans cette illustration. La recette de la formulation de référence et les fourchettes des autres facteurs et leur granularité arrondie sont spécifiées dans le dossier supplémentaire 1. Pour cet exemple, les scientifiques sont en mesure d’effectuer 23 essais (lots uniques de particules) en une seule journée et aimeraient l’utiliser comme taille d’échantillon s’il répond aux exigences minimales. Les résultats simulés de cette expérience sont fournis dans le dossier supplémentaire 2 et le dossier supplémentaire 3.
Rampado et Peer4 ont récemment publié un article de synthèse sur le sujet des expériences conçues pour l’optimisation des systèmes d’administration de médicaments à base de nanoparticules. Kauffman et coll.5 ont examiné les études d’optimisation de la LNP à l’aide de plans de criblage factoriels fractionnaires et définitifs6; Cependant, ces types de modèles ne peuvent pas s’adapter à une contrainte de mélange sans recourir à l’utilisation de « variables inutilisées »7 inefficaces et ne sont généralement pas utilisés lorsque des facteurs de mélange sont présents 7,8. Au lieu de cela, les « plans optimaux » capables d’incorporer une contrainte de mélange sont traditionnellement utilisés pour les expériences de processus de mélange9. Ces plans ciblent une fonction spécifiée par l’utilisateur des facteurs d’étude et ne sont optimaux (dans l’un des nombreux sens possibles) que si cette fonction saisit la véritable relation entre les facteurs de l’étude et les réponses. Il convient de noter qu’il existe une distinction dans le texte entre les « plans optimaux » et les « formulations optimales candidates », ces dernières désignant les meilleures formulations identifiées par un modèle statistique. Les conceptions optimales présentent trois inconvénients principaux pour les expériences de processus de mélange. Premièrement, si le scientifique ne parvient pas à anticiper une interaction des facteurs d’étude lors de la spécification du modèle cible, le modèle résultant sera biaisé et peut produire des formulations candidates de qualité inférieure. Deuxièmement, les conceptions optimales placent la plupart des passages sur la limite extérieure de l’espace factoriel. Dans les études LNP, cela peut conduire à un grand nombre de séries perdues si les particules ne se forment pas correctement à des extrêmes des paramètres lipidiques ou de processus. Troisièmement, les scientifiques préfèrent souvent avoir des essais expérimentaux à l’intérieur de l’espace factoriel pour obtenir un sens indépendant du modèle de la surface de réponse et observer le processus directement dans des régions auparavant inexplorées de l’espace factoriel.
Un autre principe de conception consiste à cibler une couverture approximativement uniforme de l’espace factoriel (contraint par le mélange) avec un plan de remplissaged’espace 10. Ces conceptions sacrifient une certaine efficacité expérimentale par rapport aux conceptions optimales9 (en supposant que l’espace factoriel entier conduit à des formulations valides) mais présentent plusieurs avantages dans un compromis qui sont utiles dans cette application. La conception de remplissage de l’espace ne fait pas d’hypothèses a priori sur la structure de la surface de réponse; Cela lui donne la souplesse nécessaire pour saisir les relations imprévues entre les facteurs de l’étude. Cela rationalise également la génération de conception, car il n’est pas nécessaire de prendre des décisions sur les termes de régression à ajouter ou à supprimer lorsque la taille d’exécution souhaitée est ajustée. Lorsque certains points de conception (recettes) conduisent à des formulations échouées, les plans de remplissage d’espace permettent de modéliser la limite de défaillance sur les facteurs de l’étude tout en soutenant les modèles statistiques pour les réponses à l’étude par rapport aux combinaisons de facteurs réussies. Enfin, la couverture intérieure de l’espace factoriel permet une exploration graphique indépendante du modèle de la surface de réponse.
Pour visualiser le sous-espace facteur de mélange d’une expérience de processus de mélange, des « tracés ternaires » triangulaires spécialisés sont utilisés. La figure 1 motive cet usage : dans le cube de points où trois ingrédients sont chacun autorisés à aller de 0 à 1, les points qui satisfont une contrainte que la somme des ingrédients est égale à 1 sont surlignés en rouge. La contrainte de mélange sur les trois ingrédients réduit l’espace factoriel possible à un triangle. Dans les applications LNP avec quatre ingrédients de mélange, nous produisons six diagrammes ternaires différents pour représenter l’espace factoriel en traçant deux lipides à la fois par rapport à un axe « Autres » qui représente la somme des autres lipides.
Figure 1 : Régions à facteurs triangulaires. Dans le diagramme de remplissage d’espace dans le cube, les petits points gris représentent des formulations qui ne sont pas cohérentes avec la contrainte de mélange. Les plus grands points rouges se trouvent sur un triangle inscrit dans le cube et représentent des formulations pour lesquelles la contrainte de mélange est satisfaite. Veuillez cliquer ici pour voir une version agrandie de cette figure.
En plus des facteurs de mélange lipidique, il existe souvent un ou plusieurs facteurs de processus continus tels que le rapport N:P, la concentration tampon ou le débit. Des facteurs catégoriques peuvent être présents, tels que le type de lipide ionisable, le type de lipide auxiliaire ou le type tampon. L’objectif est de trouver une formulation (un mélange de lipides et de paramètres pour les facteurs de processus) qui maximise une certaine mesure de la puissance et / ou améliore les caractéristiques physico-chimiques telles que la minimisation de la taille des particules et de l’indice de polydispersité, la maximisation du pourcentage d’encapsulation et la minimisation des effets secondaires - tels que la perte de poids corporel - dans les études in vivo . Même en partant d’une recette de référence raisonnable, il peut y avoir un intérêt à réoptimiser en fonction d’un changement dans la charge utile génétique ou en considérant des changements dans les facteurs de processus ou les types de lipides.
Cornell7 fournit un texte définitif sur les aspects statistiques des expériences de mélange et de processus de mélange, Myers et al.9 fournissant un excellent résumé des sujets de conception et d’analyse de mélange les plus pertinents pour l’optimisation. Cependant, ces travaux peuvent surcharger les scientifiques de détails statistiques et de terminologie spécialisée. Les logiciels modernes de conception et d’analyse d’expériences fournissent une solution robuste qui prendra suffisamment en charge la plupart des problèmes d’optimisation LNP sans avoir à faire appel à la théorie pertinente. Bien que les études plus complexes ou hautement prioritaires bénéficieront toujours de la collaboration avec un statisticien et puissent utiliser des conceptions optimales plutôt que de remplir l’espace, notre objectif est d’améliorer le niveau de confort des scientifiques et d’encourager l’optimisation des formulations LNP sans faire appel à des tests inefficaces à un facteur à la fois (OFAT)11 ou simplement se contenter de la première formulation qui satisfait aux spécifications.
Dans cet article, un flux de travail est présenté qui utilise un logiciel statistique pour optimiser un problème générique de formulation LNP, en traitant les problèmes de conception et d’analyse dans l’ordre dans lequel ils seront rencontrés. En fait, la méthode fonctionnera pour les problèmes d’optimisation généraux et ne se limite pas aux LNP. En cours de route, plusieurs questions courantes qui se posent sont abordées et des recommandations sont fournies qui sont fondées sur l’expérience et les résultatsde simulation 12. Le cadre récemment développé de modèles d’ensemble auto-validés (SVEM)13 a grandement amélioré l’approche autrement fragile de l’analyse des résultats des expériences de mélange-processus, et nous utilisons cette approche pour fournir une stratégie simplifiée d’optimisation de la formulation. Bien que le flux de travail soit construit d’une manière générale qui peut être suivie à l’aide d’autres progiciels, JMP 17 Pro est unique en ce sens qu’il offre SVEM ainsi que les outils de résumé graphique que nous avons jugés nécessaires pour simplifier l’analyse autrement obscure des expériences de processus de mélange. Par conséquent, des instructions spécifiques à JMP sont également fournies dans le protocole.
SVEM utilise la même base de modèle de régression linéaire que l’approche traditionnelle, mais elle nous permet d’éviter les modifications fastidieuses qui sont nécessaires pour ajuster un « modèle complet » d’effets candidats en utilisant une approche de base de sélection directe ou de sélection pénalisée (Lasso). En outre, SVEM fournit un ajustement amélioré du « modèle réduit » qui minimise le potentiel d’incorporation du bruit (processus plus variance analytique) qui apparaît dans les données. Il fonctionne en faisant la moyenne des modèles prédits résultant de la repondération répétée de l’importance relative de chaque exécution dans le modèle 13,14,15,16,17,18. SVEM fournit un cadre pour la modélisation des expériences de processus de mélange qui est à la fois plus facile à mettre en œuvre que la régression traditionnelle en une seule injection et donne des candidats de formulation optimale de meilleure qualité12,13. Les détails mathématiques de SVEM dépassent le cadre de cet article et même un résumé superficiel au-delà de la revue de littérature pertinente détournerait l’attention de son principal avantage dans cette application: il permet une procédure simple, robuste et précise click-to-run pour les praticiens.
Le flux de travail présenté est conforme à l’approche Quality by Design (QbD)19 du développement pharmaceutique20. Le résultat de l’étude sera une compréhension de la relation fonctionnelle qui relie les attributs des matériaux et les paramètres de procédé aux attributs de qualité critiques (AQC)21. Daniel et al.22 discutent de l’utilisation d’un cadre QbD spécifiquement pour la production de plateformes d’ARN : notre flux de travail pourrait être utilisé comme un outil dans ce cadre.
L’expérience décrite dans la section Résultats représentatifs a été réalisée conformément au Guide sur le soin et l’utilisation des animaux de laboratoire et les procédures ont été effectuées conformément aux lignes directrices établies par notre Comité de soin et d’utilisation des animaux en établissement (IACUC). Des souris Balb/C femelles âgées de 6 à 8 semaines ont été obtenues commercialement. Les animaux ont reçu de l’eau et de l’eau standard ad libitum et ont été logés dans des conditions standard avec des cycles lumière/obscurité de 12 heures, à une température de 65-75 ° F (~ 18-23 ° C) avec 40-60% d’humidité.
1. Consignation de l’objectif, des réponses et des facteurs de l’étude
REMARQUE : Dans ce protocole, JMP 17 Pro est utilisé pour concevoir et analyser l’expérience. Un logiciel équivalent peut être utilisé en suivant des étapes similaires. Pour obtenir des exemples et des instructions supplémentaires pour toutes les étapes effectuées dans la section 1, veuillez vous référer au dossier supplémentaire 1.
Figure 2 : Diagramme de cause à effet. Le diagramme montre les facteurs communs dans un problème d’optimisation de formulation LNP. Veuillez cliquer ici pour voir une version agrandie de cette figure.
2. Création de la table de conception avec un design remplissant l’espace
Figure 3 : Facteurs et fourchettes de l’étude. Les captures d’écran des paramètres dans le logiciel expérimental sont utiles pour reproduire la configuration de l’étude. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 4 : Sortie initiale pour une conception de remplissage d’espace. En montrant les deux premières lignes du tableau, les paramètres doivent être arrondis à la précision souhaitée tout en s’assurant que la somme des quantités de lipides est égale à 1. Le benchmark a été ajouté manuellement au tableau. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 5 : Tableau d’étude formaté. Les niveaux de facteur ont été arrondis et formatés et une colonne Run ID a été ajoutée. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 6 : Points de conception sur un tracé ternaire. Les 23 formulations sont présentées en fonction des rapports Ionizable, Helper et « Others » (Cholesterol+PEG) correspondants. Le point vert au centre représente le rapport molaire de référence 33:33:33:1 de Ionizable (H101):Cholesterol:Helper (DOPE):P EG. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 7 : Distribution des facteurs de processus non mélangés dans l’expérience. Les histogrammes montrent comment les essais expérimentaux sont espacés entre le type de lipide ionisable, le rapport N:P et le débit. Veuillez cliquer ici pour voir une version agrandie de cette figure.
3. Exécution de l’expérience
4. Analyse des résultats expérimentaux
Figure 8 : Lectures de puissance observées à partir de l’expérience. Les points montrent les valeurs de puissance qui ont été observées à partir des 23 essais; Les essais de référence répliqués sont affichés en vert. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 9 : Boîte de dialogue du logiciel pour lancer l’analyse. Les effets candidats ont été saisis avec la réponse de puissance cible, et l’option Aucune interception n’a pas été cochée. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Graphique 10. Boîte de dialogue supplémentaire pour spécifier les options SVEM. Par défaut, les principaux effets lipidiques sont forcés dans le modèle. Parce qu’une interception est incluse, nous vous recommandons de décocher ces cases afin de ne pas forcer les effets. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 11 : Réel par placette prévue. Cette figure représente la puissance observée par rapport à la valeur prédite pour chaque formulation par le modèle SVEM. La corrélation n’a pas besoin d’être aussi forte que dans cet exemple, mais on s’attend à voir au moins une corrélation modérée et à vérifier les valeurs aberrantes. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 12 : Profileur de prédiction. Les deux rangées supérieures de graphiques montrent les tranches de la fonction de réponse prédite à la formulation optimale (telle qu’identifiée par l’approche SVEM). La rangée inférieure de graphiques montre la « désirabilité » pondérée de la formulation, qui est une fonction de la dernière colonne de graphiques qui montre que la puissance devrait être maximisée et la taille devrait être minimisée. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 13 : Trois formulations optimales candidates issues de la sélection SVEM-Forward. La modification de la pondération de l’importance relative des réponses peut conduire à différentes formulations optimales. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 14 : Tracés ternaires pour le centile de désirabilité. Le graphique montre les 50 000 formulations codées par couleur par percentile de désirabilité, où la désirabilité est définie avec un poids d’importance de 1,0 pour maximiser la puissance et 0,2 pour minimiser la taille, ces graphiques montrent que la région optimale des formulations se compose de pourcentages plus faibles de lipides ionisables et de pourcentages plus élevés de PEG. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 15 : Tracé ternaire de la taille prévue. Le graphique montre les prédictions de taille du modèle SVEM pour chacune des 50 000 formulations. La taille est minimisée avec des pourcentages plus élevés de lipides auxiliaires et maximisée avec des pourcentages plus faibles d’aide. Étant donné que les autres facteurs varient librement entre les 50 000 formulations tracées, cela implique que cette relation se vérifie dans les gammes des autres facteurs (PEG, débit, etc.). Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 16 : Tracés de violon pour l’opportunité de formulations impliquant les trois différents types de lipides ionisables. Chacun des 50 000 points représente une formulation unique de tout l’espace factoriel autorisé. Les pics de ces distributions sont les valeurs maximales de désirabilité qui sont calculées analytiquement avec le profileur de prédiction. H102 a le plus grand pic et produit ainsi la formulation optimale. L’approche SVEM pour construire le modèle qui génère cette sortie filtre automatiquement les facteurs statistiquement non significatifs : le but de ce graphique est de considérer la signification pratique à travers les niveaux de facteurs. Veuillez cliquer ici pour voir une version agrandie de cette figure.
5. Exécution de la confirmation
Figure 17 : Tableau des dix candidats optimaux à exécuter en tant qu’essais de confirmation. La puissance réelle et la taille réelle ont été remplies à partir des fonctions génératrices de simulation (sans aucune variation supplémentaire de processus ou d’analyse). Veuillez cliquer ici pour voir une version agrandie de cette figure.
6. Facultatif : Conception d’une étude de suivi à mener en même temps que les cycles de confirmation
7. Documenter les conclusions scientifiques finales de l’étude
Cette approche a été validée pour les deux types de lipides largement classés : les lipides classiques de type MC3 et les lipidoïdes (par exemple, C12-200), généralement dérivés de la chimie combinatoire. Par rapport à une formulation de référence de LNP développée à l’aide d’une méthode One Factor at a Time (OFAT), les formulations candidates générées par notre flux de travail démontrent fréquemment des améliorations de puissance de 4 à 5 fois sur une échelle logarithmique, comme le montrent les lectures de luciférase hépatique de souris à la figure 18. Le tableau 1 illustre les améliorations correspondantes de l’expression de la luciférase hépatique chez la souris observées au cours de la performance du témoin de référence au cours de deux phases d’optimisation (une étude initiale et une étude de suivi subséquente). Dans la première phase, l’accent a été mis sur l’optimisation des ratios lipidiques tout en maintenant les autres facteurs constants. Dans l’étude de suivi, un type de lipide auxiliaire supplémentaire a été introduit et une optimisation a été effectuée en tenant compte à la fois de la composition du rapport lipidique et du type de lipide auxiliaire. Par conséquent, le type de lipide auxiliaire nouvellement introduit a été sélectionné pour être utilisé avec la composition lipidique optimisée associée. L’amélioration significative de la puissance suggère que ces compositions optimisées peuvent présenter des capacités d’échappement endosomique supérieures25.
Les simulations peuvent être utilisées pour montrer la qualité attendue du candidat optimal produit par cette procédure. Dans le cadre de l’exemple d’expérience utilisé dans le protocole, nous pouvons répéter la simulation plusieurs fois pour différentes tailles d’exécution et évaluer les résultats en fonction de la fonction de génération de processus simulée. Un script JMP à cet effet est fourni dans le fichier supplémentaire 4. Plus précisément, une conception de remplissage d’espace a été générée et les colonnes de réponse ont été remplies avec les valeurs de nos fonctions de générateur, ainsi que le bruit représentant la variation analytique et de processus. Nous adaptons ces réponses simulées à différentes techniques d’analyse (y compris SVEM Forward Selection) pour produire une recette optimale candidate correspondante. Les candidats de chaque méthode d’analyse sont ensuite comparés à la valeur de l’optimum réel des fonctions génératrices. La figure 19 illustre le pourcentage moyen de la réponse théorique maximale obtenue par chacune des trois méthodes d’analyse utilisant des plans de taille de remplissage d’espace donnés sur l’axe horizontal. Le modèle complet, qui inclut tous les effets candidats et ne réduit pas le modèle en fonction de la signification statistique de ces effets, donne les pires résultats. Une grande partie du travail supplémentaire qui est traditionnellement consacré à l’ajustement des modèles de régression pour les expériences de processus de mélange implique des modifications (suppression de l’interception, force des effets principaux du mélange, exclusion de l’utilisation d’effets de mélange quadratique pur, etc.) qui sont nécessaires pour adapter ce modèle complet9, et de ce point de vue, ces procédures sont inutiles12. En outre, ce modèle ne peut pas être ajusté tant que la taille de conception n’atteint pas le nombre d’effets dans le modèle. Pour des tailles expérimentales plus petites, nous pouvons adapter la méthode traditionnelle de sélection directe, qui surpasse le modèle complet en ce qui concerne la performance moyenne de la formulation candidate optimale pour chaque taille expérimentale fixe. De même, la modification SVEM de cette approche de sélection avancée améliore encore les performances des candidats optimaux. Ce graphique révèle que l’utilisation de SVEM-Forward Selection12,13 pour analyser une expérience de remplissage d’espace de 24 exécutions permet d’obtenir la même qualité moyenne nécessitant généralement 50 exécutions lorsqu’elle est analysée avec un modèle traditionnel de sélection directe (ciblant le minimum AICc). Bien que les performances réelles varient d’un processus à l’autre, cette simulation - ainsi que les résultats publiés sur SVEM 12,13,16,17,26 - démontre le potentiel de cette procédure de modélisation pour l’optimisation de la formulation.
Figure 18 : Amélioration de l’expression de la luciférase hépatique après deux cycles d’expérimentation. La ronde 0 montre la lecture de la luciférase hépatique pour la formulation de référence; Le tour 1 montre la lecture de la luciférase hépatique après la première expérience qui optimise les rapports molaires lipidiques constitutifs LNP; Le tour 2 montre la lecture de la luciférase hépatique après la deuxième expérience, ce qui optimise davantage les rapports molaires constitutifs tout en tenant compte d’un type de lipide auxiliaire supplémentaire. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Figure 19 : Qualité de la formulation optimale en fonction de la taille expérimentale et du modèle statistique. L’axe vertical représente le pourcentage de désirabilité maximale théorique et l’axe horizontal représente la taille de la conception de remplissage de l’espace. Chaque point montre la moyenne sur 150 simulations. La ligne bleue (triangles) représente le modèle complet (sans aucune élimination des effets statistiquement non significatifs), la ligne orange (cercles) représente le modèle traditionnel de sélection directe basé sur AICc (avec une interception et sans effets principaux de mélange de forçage) et la ligne verte (triangles à l’envers) représente le modèle de sélection avant basé sur SVEM (avec une interception et sans effets principaux de mélange de forçage). Veuillez cliquer ici pour voir une version agrandie de cette figure.
Rond | ID de particule | Expression de la luciférase dans le foie (photon/sec) |
0 | Benchmark de contrôle | 8.E+06 |
1 | Optimisé sur les ratios lipidiques | 2.E+09 |
2 | Optimisé sur les ratios lipidiques et le type de lipide auxiliaire | 8.E+10 |
Tableau 1 : Amélioration systématique de l’expression de la luciférase grâce à l’optimisation du plan d’expérience (DOE). Ce tableau illustre l’amélioration significative de l’expression de la luciférase, avec une amélioration jusqu’à 10 000 fois à l’échelle photon/seconde, du repère initial au « candidat optimal » final.
Dossier supplémentaire 1: 04AVR2023 Résumé.docx - Ce document fournit un compte rendu de l’étude, y compris son objectif, les réponses évaluées, les facteurs pris en compte et le nombre total d’exécutions. Veuillez cliquer ici pour télécharger ce fichier.
Fichier supplémentaire 2 : 23_run_simulated_experiment.jmp - Fichier JMP contenant l’expérience simulée et ses résultats. Ce fichier comprend également des scripts d’analyse compatibles avec JMP 17 Pro. Veuillez cliquer ici pour télécharger ce fichier.
Fichier supplémentaire 3 : 23_run_simulated_experiment.xlsx - Fichier Excel contenant l’expérience simulée et ses résultats, adapté aux lecteurs qui n’ont peut-être pas accès à JMP. Veuillez cliquer ici pour télécharger ce fichier.
Fichier supplémentaire 4 : simulation de mélange 20DEC22.jsl - Il s’agit d’un script JMP 17 Pro utilisé pour simuler des expériences de formulation LNP et évaluer les performances de différentes méthodes d’analyse. Le script utilise l’approche SVEM-Forward Selection (sans interception), qui est la méthode d’analyse clé utilisée dans ce workflow. Veuillez cliquer ici pour télécharger ce fichier.
Un logiciel moderne pour la conception et l’analyse d’expériences de processus de mélange permet aux scientifiques d’améliorer leurs formulations de nanoparticules lipidiques dans un flux de travail structuré qui évite les expériences OFAT inefficaces. L’approche de modélisation SVEM récemment développée élimine bon nombre des modifications de régression obscures et des stratégies de réduction des modèles qui auraient pu auparavant distraire les scientifiques avec des considérations statistiques étrangères. Une fois les résultats collectés, le cadre d’analyse SVEM propose une approche à la fois plus facile à mettre en œuvre et tendant à produire de meilleurs modèles que les approches de modélisation traditionnelles13. En outre, les analyses graphiques basées sur les formules de prédiction de chaque réponse sont facilement interprétables par les scientifiques, ce qui donne un résumé clair du comportement marginal de la réponse sur des facteurs individuels ainsi que sur de petits groupes de facteurs sans nécessiter l’interprétation d’estimations de paramètres hautement corrélées à partir d’un modèle de régression. Cela permet aux scientifiques de se concentrer sur l’évaluation de la signification pratique des facteurs d’étude après que SVEM ait automatiquement supprimé les effets statistiquement non significatifs.
Le flux de travail a été utilisé dans la pratique pour faire varier systématiquement la composition lipidique et les paramètres de formulation tels que le rapport N/P, le débit et le rapport de mélange pour l’optimisation et pour sélectionner les meilleurs types de lipides auxiliaires, les types de lipides ionisables et les types tampons. Les objectifs de ces exemples comprennent généralement la maximisation de la puissance in vivo ou in vitro et l’encapsulation de charges utiles variées telles que l’ARNm ou l’ADN pour des cibles in vivo pertinentes telles que les cellules hépatiques, ou parfois sur plusieurs types de cellules dans le cas d’applications in vitro. Pour des applications spécifiques, nous devrons peut-être équilibrer les propriétés biophysiques telles que la taille, la PDI, le potentiel zêta et le pourcentage d’encapsulation tout en examinant la puissance in vivo. De plus, l’objectif est de trouver une formulation puissante, mais bien tolérée et nous pouvons donc inclure des réponses telles que le changement de poids corporel, la réponse aux cytokines ou l’induction d’enzymes hépatiques telles que l’ASAT / ALT dans l’analyse. Des modèles ont émergé de nombreuses expériences LNP. Notamment, les altérations du rapport molaire du lipide ionisable et du rapport N/P semblent avoir un impact significatif sur l’encapsulation de l’ARN. De plus, les changements dans le rapport molaire PEG semblent affecter la stabilité des particules, comme l’indiquent les influences sur la taille et le PDI. En général, un excès de PEG dans le cœur LNP a tendance à avoir un effet néfaste sur la puissance chez la souris.
Les améliorations de performance sont particulièrement perceptibles lorsque plus d’une réponse est ciblée : même si le benchmark fonctionne déjà bien en ce qui concerne la réponse primaire (par exemple, la puissance), l’optimisation conjointe maintient ou améliore généralement le comportement par rapport à la réponse primaire tout en améliorant simultanément le comportement par rapport aux autres réponses (minimisant la PDI, la taille ou la perte de poids corporel). Nous validons l’authenticité de ces améliorations avec des cycles de confirmation, dans lesquels nous préparons et comparons directement la formulation de référence (éventuellement avec une réplique) et les nouvelles formulations candidates.
La phase de conception de ce flux de travail comporte plusieurs étapes critiques. Tout d’abord, assurez-vous que les facteurs et leurs plages sont correctement saisis dans la plate-forme de conception qui remplit l’espace. Deuxièmement, utilisez des graphiques et des connaissances sur le sujet pour confirmer la faisabilité de chaque formulation résultante avant de commencer l’expérience. Enfin, exécutez l’expérience en suivant l’ordre aléatoire spécifié par la table de conception. Le respect de cette séquence permet d’éviter que les covariables non mesurées - telles que l’ordre de production de la formulation ou la température ambiante - ne confondent les facteurs à l’étude. Les conceptions qui remplissent l’espace sont plus faciles à construire - avec moins de risque d’erreur de l’utilisateur que les conceptions de processus de mélange optimales, qui nécessitent des décisions supplémentaires lors de la configuration qui peuvent frustrer les utilisateurs inexpérimentés et les décourager d’utiliser des expériences conçues. Néanmoins, après avoir travaillé sur ce protocole, les scientifiques pourraient bénéficier de lectures supplémentaires sur la façon dont les conceptions optimales pourraient potentiellement remplacer les conceptions de remplissage d’espace dans le protocole, comme décrit dans le chapitre 6 de Goos et Jones (2011)27. En particulier pour les études de suivi qui « zooment » sur une région optimale - où il y a moins de préoccupations concernant les défaillances le long des limites du mélange - les conceptions D-optimales peuvent être plus efficaces que les conceptions remplissant l’espace.
De même, la phase d’analyse de ce flux de travail comporte plusieurs étapes critiques. Tout d’abord, assurez-vous que le modèle spécifie un ensemble approprié d’effets candidats, y compris les interactions, plutôt que seulement les effets principaux (de premier ordre) des facteurs. Deuxièmement, utilisez SVEM Forward Selection comme cadre de modélisation. Troisièmement, désactivez l’option par défaut No Intercept et évitez de forcer les effets principaux du mélange. Enfin, définissez correctement les fonctions de désirabilité des réponses avant de lancer l’optimisation. Pour les utilisateurs n’ayant pas accès à SVEM, la meilleure approche consiste à utiliser la sélection directe traditionnelle (ciblant l’AICc minimum) pour le problème de régression12. Le protocole mentionne qu’il est également possible d’utiliser SVEM Lasso: en moyenne, cette approche donne des résultats similaires à SVEM Forward Selection, bien que pour des ensembles de données particuliers, les deux approches puissent produire des formulations optimales légèrement différentes qui pourraient être comparées aux sériesde confirmation 12. Cependant, SVEM Lasso donnera des résultats de modélisation inférieurs si l’utilisateur commet l’erreur facile d’oublier de désactiver l’option12 No Intercept par défaut: pour cette raison, nous avons utilisé SVEM Forward Selection comme méthode par défaut, car elle est plus robuste à cette option.
La principale limite de cette méthode est qu’il y aura des études occasionnelles plus complexes qui bénéficieront de l’aide d’un statisticien pour la conception et l’analyse. Les situations où le budget d’exécution est plus limité que d’habitude (en dessous de l’heuristique minimale), les réponses sont binaires, il existe un grand nombre de facteurs catégoriques ou de niveaux d’un seul facteur catégoriel, où un objectif de recherche est d’envisager d’éliminer un ou plusieurs facteurs de mélange de la recette, ou où il existe des contraintes supplémentaires sur l’espace factoriel peuvent être abordés différemment par un statisticien, par exemple, en utilisant des conceptions optimales ou hybrides12,28 ou en ajoutant une structure supplémentaire à la conception. Plus précisément, une conception hybride pourrait être formée en créant une conception remplissant l’espace avec la plupart des séries budgétisées, puis en « augmentant » la conception avec les séries restantes (généralement 2-4) en utilisant un critère optimal D. Une autre approche hybride consiste à générer un plan de remplissage d’espace sur le mélange (lipides) et les facteurs continus (processus), puis à ajouter tous les facteurs catégoriels en utilisant une allocation « optimale » des niveaux de facteurs. Néanmoins, l’approche simplifiée de conception de remplissage d’espace adoptée dans le protocole a été développée au cours des dernières années dans le processus d’exécution de dizaines d’expériences d’optimisation de formulation LNP, et nous pensons qu’elle offre une approche robuste qui fonctionnera avec succès dans la plupart des cas tout en donnant aux scientifiques confiance dans leur capacité à utiliser des expériences conçues.
La stratégie de conception expérimentale qui sous-tend ce flux de travail a été utilisée dans deux demandes de brevet dont l’un des auteurs est un inventeur. En outre, Adsurgo, LLC est un partenaire JMP certifié. Toutefois, l’élaboration et la publication de ce document ont été entreprises sans aucune forme d’incitation financière, d’encouragement ou d’autres incitations de la part de JMP.
Nous sommes reconnaissants à l’éditeur et aux arbitres anonymes pour les suggestions qui ont amélioré l’article.
Name | Company | Catalog Number | Comments |
JMP Pro 17.1 | JMP Statistical Discovery LLC |
Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE
Demande d’autorisationThis article has been published
Video Coming Soon