quiconque a de l'expérience avec la diffusion de texte avez-vous constaté que les modèles de base ont des propriétés d'attracteur étranges ; c'est-à-dire des boucles qui ont tendance à avoir un comportement quasi-périodique dans l'espace conceptuel ? un peu comme les modèles de diffusion ont des attracteurs étranges au lieu d'attracteurs statiques comme les modèles AR.
Il y a quelques heures, je pensais que cela ne s'appliquait vraiment qu'aux modèles de base, mais après un test, il semble que même les modèles ajustés par instruction fassent cela à mesure que les conversations s'allongent, par exemple, le modèle continuera à se hyperfixer sur quelque chose de random, mais cette chose se transmutera lentement.
1,25K