COMPRESSION & CRYPTHOGRAPHIE - Algo - Programmation
Marsh Posté le 21-08-2007 à 23:14:16
Bonjour,
La graphologie marche même avec une écriture qui n'est pas manuscrite.
Par exemple, ce message :
Le titre est écrit entièrement en lettres majuscules. Pourquoi ? Parce que son auteur pense que plus les lettres sont grosses, plus un message est lisible. Erreur ! C'est le contraste qui donne de la lisibilité. D'ailleurs, les romans, les journaux ne sont pas écrits entièrement en lettres majuscules, car sinon le lecteur décrocherait au bout de trente secondes.
Dans le corps du message tout est sérré. Cela montre un esprit secret, à la limite avare, ou peut-être stressé, compressé par des parents exigents.
Le titre illisible, plus le message compact et ayant une forme étrange vers la fin, contribuent à rendre tout cela mystérieux. L'analyse graphologique révèle donc que l'écriture du sujet est en cohérence avec le contenu de son message.
Bonne chance, cher Compression1, et soyez un peu moins compressé.
Marsh Posté le 22-08-2007 à 10:07:41
billgatesanonym a écrit : Bonjour, |
T'as oublie de relever l'absence quasi-totale de ponctuation ... mais c'est sans doute un effet secondaire du au travail sur un algo de compression.
Marsh Posté le 22-08-2007 à 10:08:10
compression1 a écrit : Salut tout le monde , |
Il est efficace comment ton algorithme?
Marsh Posté le 22-08-2007 à 10:11:33
Ace17 a écrit : |
Avec les langages actuel on doit s'approcher de la compression absolue
Marsh Posté le 22-08-2007 à 10:44:35
j'ai tout de suite pensé à ça en effet
edit : allezu hop, un petit flag, ça promet
Marsh Posté le 22-08-2007 à 10:53:04
Koyomi a écrit : |
tu parles du langage SMS? Effectivement, c'est difficile de plus compresser à la volée
Marsh Posté le 22-08-2007 à 11:56:44
Ce qui serait intéressant c'est un algo de compression dont on aurait la certitude que sa sortie est toujours plus petite que son entrée. Parce que bon, des fois zip, ben ton fichier zippé, il est plus gros que le document à l'intérieur
Marsh Posté le 22-08-2007 à 12:12:09
Taz a écrit : Ce qui serait intéressant c'est un algo de compression dont on aurait la certitude que sa sortie est toujours plus petite que son entrée. Parce que bon, des fois zip, ben ton fichier zippé, il est plus gros que le document à l'intérieur |
Attends, tu deconnes la j'espere ...
Marsh Posté le 22-08-2007 à 12:47:03
Ace17 a écrit : |
un test tout bete cree un fichier de quelques octect, meme identique. Regarde ca taille, compresse le en Zip et regarde la taille de sortie tu va etre surpris...
Marsh Posté le 22-08-2007 à 13:02:13
Koyomi a écrit : |
Mais je le sais bien que le zip augmente parfois la taille du fichier!
Aucun algorithme de compression sans perte ne peut diminuer la taille de n'importe quel fichier ... ca m'etonnait juste que Taz semble ne pas savoir ca.
Si tu reduis la taille de n'importe quel fichier, ca veut dire que tu as une bijection entre deux ensembles qui n'ont pas la meme taille ...
edit : Masklinn a deja tres bien explique ca dans le topic cite plus haut
Marsh Posté le 22-08-2007 à 13:35:09
Ace17 a écrit : |
en fait apres analyse du post de Taz je pense que tout etais du second degrée (comme ce topic) et que je suis trop terre a terre
Marsh Posté le 22-08-2007 à 16:24:42
Ace17 a écrit : |
irony
Marsh Posté le 22-08-2007 à 17:04:19
Sisi moi je connais un outils de compression absolue : la touche "suppr" du clavier.
Tu effaces tes documents Word, pis après tu demandes à un stagiaire de les réécrire quand t'en a besoin.
Evidement, ça prend pas mal de temps pour la décompression, et parfois tu retombes pas tout à fait sur l'original.
Mais au moins cet algo fait le café
Marsh Posté le 22-08-2007 à 19:05:14
si on prend un ensemble de veuleur dont l'existance serai egal (ex: pour a il ya 10 de meme pour tout l'ensemble de 0 a 255)
alors la possibilite de trouver le fichier par un ordre est egal a la taille du fichier lui meme .
(peut etre moins +l'historique du fichier compresser =fichier original)alors la bijection n'a rien a avoir ici
Marsh Posté le 22-08-2007 à 19:09:47
ce message est pour koyomi l'idee de cette algorithme est totalemnt original si tu veut discuter + a ce sujet tu peut m'envoyer un message a ma boite ou on peut discuter
Marsh Posté le 22-08-2007 à 19:10:51
je te conseille vivement de lire les écrits d'un certain Claude E. Shannon avant d'aller plus loin dans tes recherches
Marsh Posté le 22-08-2007 à 19:29:03
compression1 a écrit : si on prend un ensemble de veuleur dont l'existance serai egal (ex: pour a il ya 10 de meme pour tout l'ensemble de 0 a 255) |
Bon, deja, je te demande de t'exprimer en francais a peu pres correct stp, parce que je n'ai rien compris a ton charabia.
Ensuite, bien sur que la bijection a quelque chose a faire dans cette histoire. Parce qu'un algo de compression sans perte EST une bijection (sinon il ne serait pas "sans perte" ). Quelle garantie as-tu que la taille du fichier compresse + son historique ne va pas depasser la taille du fichier original ?
Marsh Posté le 22-08-2007 à 23:56:27
premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ?
-as tu etudie les toutes les compression (en commencantpar la compression a blanc , huffman , RLE et ZLW...)
si tu as de si belles idees do you mind shere in it ?please
Marsh Posté le 23-08-2007 à 00:01:54
ReplyMarsh Posté le 23-08-2007 à 00:09:04
compression1 a écrit : premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ? |
compression1 a écrit : si tu sais quelques choses sur les idees de claude E.shanon |
J'en ai marre de voir des cons pareils, à chaque fois que je me dis que ma foi en l'humanité ne pourrait être plus basse un nouveau challengeur apparait
Marsh Posté le 23-08-2007 à 02:01:20
Bon, compression1, le plus fort dans le monde en compression, c'est shannon parce qu'il a sorti un théorème (ça veut dire qu'il l'a démontré et que c'est incontestable) qui dit qu'il existe forcément une manière de compresser une information au maximum (sans pertes) pour que sa "taille" soit égale à la quantité d'informations qu'elle contient.
La seule manière que tu pourrais avoir pour impressionner qui que ce soit (à part un néophyte) serait de trouver le théorème (et le démontrer par la même occasion) qui détermine la manière de compresser n'importe quelle information pour réduire sa taille au minimum. Je te souhaite bonne chance.
Marsh Posté le 23-08-2007 à 09:08:35
quand on a affaire à qq comme compression1, on dit plutôt "donner des baffes"
Marsh Posté le 23-08-2007 à 09:25:01
compression1 a écrit : premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ? |
Marsh Posté le 23-08-2007 à 10:02:56
compression1 a écrit : premierement en quoi la bijection serai un probleme dit moi pour une compression sans perte hein ? |
Non, je n'ai pas etudie toutes les compressions, tu en sais sans doute plus que moi la dessus ... mais ca ne change pas la donne. Pas de probleme, je vais donc tenter de t'expliquer mon point de vue - et il ne s'agit pas de "belles idees" mais tout simplement de logique. Ce qui m'a fait reagir, c'est la notion d'algo de compression dont on aurait la certitude que la taille du fichier de sortie soit inferieure a celle du fichier d'entree. Parce que ca veut purement et simplement dire qu'il n'y a pas autant de fichiers de sortie possibles que de fichiers d'entree. Donc parmi tes tous tes fichiers d'entree possibles tu vas en avoir au moins 2 qui donnent le meme fichier de sortie, ce qui est problematique si on veut pouvoir decompresser. Tu n'es pas d'accord?
Marsh Posté le 23-08-2007 à 16:55:31
oui je te suis c'est vrai, mais la probabilite est une operationde de possibilite applle(ordre: n!/(n-h)!h!) alors pour un fichier qui contient pour tous ses ensembles de repetion egale donc pour le 0 le nombre de repition de cette lettre =100 et ainsi de suite pout tout jusqu'a 255
alors la possibilite de ce document compresser est telle qu'elle soit egal au document original
Marsh Posté le 23-08-2007 à 17:00:39
je suis d'accord que la notion d'algo de compression dont on aurait la certitude que la taille du fichier de sortie soit inferieure a celle du fichier d'entree. Parce que ca veut purement et simplement dire qu'il n'y a pas autant de fichiers de sortie possibles que de fichiers d'entree. Donc parmi tes tous tes fichiers d'entree possibles tu vas en avoir au moins 2 qui donnent le meme fichier de sortie, ce qui est problematique si on veut pouvoir decompresser. mais ce que je propose est une nouvelle methode qui poura meme compresser le document deja compresser par tout les outils de compressions connu ( a l'excepption de quelques documents bien sure ok)comme pour le format MP
3 , zip,JPEG...et autres
Marsh Posté le 23-08-2007 à 17:00:57
compression1 a écrit : oui je te suis c'est vrai, mais la probabilite est une operationde de possibilite applle(ordre: n!/(n-h)!h!) alors pour un fichier qui contient pour tous ses ensembles de repetion egale donc pour le 0 le nombre de repition de cette lettre =100 et ainsi de suite pout tout jusqu'a 255 |
Impressionnant, tous les mots ont l'air de venir d'un dictionnaire de français (fautes d'orthographe ignorées) mais ce n'est indubitablement pas du français, je découvre des trucs là.
Marsh Posté le 23-08-2007 à 17:01:38
compression1 a écrit : je suis d'accord que la notion d'algo de compression dont on aurait la certitude que la taille du fichier de sortie soit inferieure a celle du fichier d'entree. Parce que ca veut purement et simplement dire qu'il n'y a pas autant de fichiers de sortie possibles que de fichiers d'entree. Donc parmi tes tous tes fichiers d'entree possibles tu vas en avoir au moins 2 qui donnent le meme fichier de sortie, ce qui est problematique si on veut pouvoir decompresser. mais ce que je propose est une nouvelle methode qui poura meme compresser le document deja compresser par tout les outils de compressions connu ( a l'excepption de quelques documents bien sure ok)comme pour le format MP |
lol
Marsh Posté le 23-08-2007 à 17:02:13
compression1 a écrit : oui je te suis c'est vrai, mais la probabilite est une operationde de possibilite applle(ordre: n!/(n-h)!h!) alors pour un fichier qui contient pour tous ses ensembles de repetion egale donc pour le 0 le nombre de repition de cette lettre =100 et ainsi de suite pout tout jusqu'a 255 |
mais bordel !
Marsh Posté le 23-08-2007 à 17:02:36
tout ce que je vous demande chers internautes c'est de bien vouloir m'aider a developper cette algorithme. ace17 connais-tu quelqu'un ?
Marsh Posté le 23-08-2007 à 17:03:50
Je que l'homme de la situation. Je que dossier bleu et vous sur une centaine de tableaux très clairs. Vous semaine prochaine et sans faute. Je tellement sur vous. Je clair, Luc, ne pas ?
Marsh Posté le 23-08-2007 à 17:19:58
Ou Sophie la Douce, elle est généralement volontaire pour ce genre de projet.
Ou Harkonnen, si tu veux une interface graphique de qualité.
Marsh Posté le 21-08-2007 à 19:22:03
Salut tout le monde ,
j'ai developper un algorithme de compression ainsi de crypthographie mais le probleme est que je n'arrive pas a trouver un parti qui soit interesser par cette algorithme alors ce que je vous demande et de bien vouloir m'aider a trouver quelqu'un en qui je peux discuter en toute liberte de ce sujet
si vous avez des idee n'hesiter pas a ecrire a mon @dresse mail :
compression1985@gmail.com ou chooooooseme@yahoo.fr
merci pour tout au revoir