Narrow your search

Library

KBR (70)

KU Leuven (63)

ULiège (45)

UAntwerpen (27)

UGent (24)

UCLouvain (16)

ULB (9)

UHasselt (5)

VUB (4)

PXL (2)

More...

Resource type

book (61)

dissertation (9)

digital (1)


Language

English (62)

Dutch (7)

Undetermined (1)


Year
From To Submit

2021 (1)

2009 (2)

2008 (3)

2007 (2)

2006 (1)

More...
Listing 1 - 10 of 70 << page
of 7
>>
Sort by

Dissertation
Elliptic and hyperelliptic curve point counting through deformation
Authors: ---
ISBN: 9789086491025 Year: 2007 Publisher: Leuven Katholieke Universiteit Leuven

Loading...
Export citation

Choose an application

Bookmark

Abstract

Het is intussen reeds enkele decennia geleden dat Koblitz en Miller voorstelden om elliptische krommen of de jacobianen van hyperelliptische krommen over eindige velden te gebruiken als geschikte groepen voor een cryptografisch discrete-logaritme probleem (DLP). Opdat dit DLP voldoende veiligheid zou garanderen, is het heel belangrijk de orde van de groep te kennen, deze moet bijvoorbeeld deelbaar zijn door een grote priemfactor. In deze thesis ontwikkelen we een p-adische cohomologie die toelaat algoritmes te ontwerpen om de orde van zulke groepen efficiënt te bepalen. In 2001 gebruikte Kedlaya de reeds veel oudere cohomologie van Monsky en Washnitzer in een algoritme dat de zeta functie van een hyperelliptische kromme van genus g berekent. Deze cohomologie is een 2g-dimensionale p-adische vectorruimte waarop een Frobenius-operator werkt, waarbij de karakteristieke veelterm van deze operator de zeta-functie geeft. Enkele jaren later vormde Lauder werk van Dwork om tot een algoritme om de zeta-functie van hyperoppervlakken te bepalen. Centraal hierbij is het concept deformatie: het inbedden van het hyperoppervlak in een familie met (minstens) één makkelijke variëteit in de familie. De verandering van de Frobenius operator doorheen de familie wordt dan vastgelegd door een p-adische differentiaalvergelijking. Mijn werk combineert deze twee ideeën en bestaat erin een relatieve Monsky-Washnitzer cohomologie te construeren (i.e. niet voor één kromme zoals Kedlaya, maar voor de ganse familie) voor hyperelliptische krommen en het zoeken van een vorm van de differentiaalvergelijking die geschikt is voor algoritmische doeleinden. Voor welgekozen families E(G), waarbij E(0) over een heel klein eindig veld gedefinieerd is, kunnen we de differentiaalvergelijking oplossen op zeer efficiënte wijze. Dit geeft aanleiding tot een algoritme dat voor krommen in zulke families de zeta-functie bepaalt met veel minder geheugenruimte dan Kedlaya's algoritme. Daarenboven kan het algoritme ook asymptotisch (en in praktijk) sneller gemaakt worden. Een implementatie in oneven karakteristiek geeft uitermate interessante resultaten. Door de strategie die we gebruiken voor het oplossen van de differentiaalvergelijking aan te passen en een ander type familie te kiezen, hebben we ook een algoritme ontwikkeld dat voor elke hyperelliptische kromme werkt en dat nog steeds veel minder geheugen vraagt dan het algoritme van Kedlaya. In een laatste resultaat geven we een specifiek algoritme voor elliptische krommen dat kwadratisch werkt in de uitbreidingsgraad van het eindig veld. Dit is mogelijk doordat de Frobenius-operator 'semi-gediagonaliseerd' kan worden. De orde van een elliptische kromme over een eindig veld van graad 100 en karakteristiek 3 kan hiermee berekend worden in een halve seconde. The use in cryptography of the group structure on elliptic curves or the jacobians of hyperelliptic curves over finite fields has been suggested already a few decades ago. In order to exploit the difficulty of the discrete logarithm problem on these groups, their size is a parameter of central importance. In this thesis we develop a certain p-adic analytic cohomology theory which gives rise to algorithms that can compute those sizes in a very efficient way. In 2001 Kedlaya came up with an algorithm for computing the zeta function of a hyperelliptic curve of genus g using Monsky-Washnitzer cohomology. This is a certain 2g-dimensional p-adic vector space on which a Frobenius operator lives. The characteristic polynomial of this operator yields then the zeta function. A few years later Lauder used in the context of determining the size of hypersurfaces an old result of Dwork concerning deformation. Deformation is a technique that looks at families of curves, where a specific fiber is easy to treat and the variation of Frobenius throughout the family satisfies a p-adic differential equation. Our work combines these two approaches and consists mainly of constructing a relative Monsky-Washnitzer cohomology (i.e. for one-dimensional families) for hyperelliptic curves and finding interesting forms of the corresponding differential equation. By taking well-chosen families E(G), so that E(0) is defined over a very small finite field, and solving the corresponding differential equation, we can construct an algorithm for a certain type of curves that uses far less memory than Kedlaya's and is also faster. An implementation in odd characteristic gives some very nice results. By reconsidering the solution technique of the differential equation and choosing other types of families we developed also an algorithm that works for any hyperelliptic curve and still requires far less memory than Kedlaya's algorithm. A final result concerns elliptic curves, where we showed that the Frobenius operator can be 'semi-diagonalized'. This allows a running time that is quadratic in the extension degree of the finite field and e.g. lets us compute the zeta function of an elliptic curve over a field of degree 100 and characteristic 3 in half a second. Het is bijzonder moeilijk om elektronische communicatie weg te denken uit onze moderne samenleving. De wetenschap die dit mogelijk maakt op een (min of meer) veilige manier is de cryptografie. Een groot deel van de cryptografische schema's is gebaseerd op de veronderstelde moeilijkheid van het berekenen van discrete logaritmes in eindige groepen: in goed gekozen groepen is het mogelijk heel snel een groot veelvoud n.P van een element P te bepalen, maar is het heel moeilijk deze operatie om te keren: uit P en n.P moet je dan n kunnen vinden. Om te bepalen of een groep bruikbaar is voor cryptografie, is het zeer belangrijk de grootte ervan te kennen. In deze thesis ontwikkelen we een p-adische cohomologie die toelaat algoritmes te ontwerpen die in staat zijn het aantal elementen in bepaalde soorten groepen te berekenen, namelijk elliptische krommen en jacobianen van hyperelliptische krommen over eindige velden. Beide soorten groepen worden intensief bestudeerd door cryptografen en wiskundigen en er bestaan reeds commercieel verkrijgbare producten die gebruik maken van elliptische krommen. De twee centrale begrippen in dit werk zijn Monsky-Washnitzer cohomologie -- deze laat toe de grootte van de kromme uit te drukken m.b.v. de matrix van een bepaalde afbeelding op een p-adische vectorruimte -- en deformatie. Deformatie is een techniek waarbij een ganse familie krommen tegelijk bekeken wordt: één kromme uit de familie is van bijzonder eenvoudige vorm en de verandering doorheen de familie kan worden weergegeven d.m.v. een p-adische differentiaalvergelijking. De idee is dan de 'moeilijke' kromme te deformeren tot een 'gemakkelijke' en via de differentiaalvergelijking resultaten terug te brengen tot de moeilijke. Door deze twee ideeën te combineren voor hyperelliptische krommen heb ik een p-adische relatieve cohomologie uitgewerkt die aanleiding geeft tot algoritmes die veel efficiënter zijn dan oudere bestaande, in het bijzonder wat betreft de hoeveelheid geheugen die gebruikt wordt. Voor elliptische krommen kunnen we dit aanpassen tot een uitzonderlijk snel algoritme dat de grootte van een kromme die mogelijkerwijze bruikbaar is voor cryptografie kan berekenen in een halve seconde.

Graph-theoretic concepts in computer science. 17th international workshop, WG'91, Fischbau, Germany, June 17-19, 1991. Proceedings
Authors: ---
ISBN: 3540551212 0387551212 3540467351 Volume: vol 570 Publisher: New York, NY : Springer-Verlag.

Higher combinatorics
Author:
ISBN: 9027707952 9401012229 9401012202 9789027707956 Year: 1977 Volume: 31 Publisher: Dordrecht : Reidel,


Dissertation
Computation of the permeability of multi-scale porous media with application to technical textiles
Authors: ---
ISBN: 9789056829131 Year: 2008

Loading...
Export citation

Choose an application

Bookmark

Abstract

Technisch textiel worden gebruikt als versterking in composietmaterialen. De doorlaatbaarheid of permeabiliteit van dit textiel is een belangrijke input voor de simulatie van het impregnatie onderdeel van het Vloeibaar Composietmouleren (Liquid Composite Moulding), een veel gebruikte productie-techniek voor composietmaterialen. Technisch textiel is een meerschalige poreuze structuur, en dus bekijken we de permeabiliteit op verschillende niveaus. De vezels van een draad bepalen de structuur op het microscopisch niveau. Een eenheidscel van het textiel, een deel van het textiel dat dezelfde permeabiliteit heeft als het volledige stuk, bepaalt het middenniveau. In dit werk introduceren we een snelle en nauwkeurige methode voor de berekening van de permeabiliteit van textiel. De methode is gebaseerd op de eindige differentie discretisatie van de Stokes vergelijkingen. De input voor deze RV-simulaties (Rekenkundige Vloeistofdynamica), is een eenheidscel van het textielmodel dat gemodelleerd is met programma's om textielmodellen te ontwerpen zoals bijvoorbeeld WiseTex of TexGen. Als ook de stroming in de draden zelf in rekening moet gebracht worden, dan worden de Stokes vergelijkingen lokaal uitgebreid met een strafterm, wat resulteert in de Brinkman vergelijkingen. De grootte van de straf kan analytisch bepaald worden aan de hand van de lokale eigenschappen van de vezels. We vergelijken in dit werk verschillende analytische formules voor de berekening van deze strafterm. We vergelijken de resultaten van onze berekeningen met experimenteel bepaalde permeabiliteitswaarden, voor geweven textiel, willekeurige-structuur textiel en textiel met ongebogen draad. Bovendien stellen we de resultaten voor van berekeningen op een speciaal ontworpen structuur. Experimenten op deze structuur hebben minder last van spreiding op de resultaten dan experimenten op textiel. We bespreken ook nog de invloed van vervormingen zoals afschuiving en nesten van verschillende lagen, op de permeabiliteit. Er bestaan verschillende methodes die de permeabiliteit van poreus materiaal schatten, zonder een 3D-RV simulatie. De Grid2D methode bijvoorbeeld, reduceert het 3D Stokes probleem tot een 2D Darcy probleem. In deze thesis onderzoeken we deze methode, en vergelijken de resultaten met onze RV-berekeningen. Een tweede methode die de probleemstelling reduceert, is de porie-netwerk methode. Deze methode beschrijft het poreus materiaal als een netwerk van porieën, en berekent dan de permeabiliteit aan de hand van de wetten van behoud. We leggen uit hoe ons Stokes programma gebruikt wordt in deze context aan de hand van de berekening van de permeabiliteit van poreus gesteente. Technical textiles are used as reinforcement in composite materials. The permeability of the textiles is an important input parameter for the simulation of the impregnation stage of the Liquid Composite Moulding process, an often used production technique for composite materials. Textile reinforcements are multi-scale porous structures and the permeability is considered on the different scales. The fibres inside the yarns determine the micro-scale properties of the textile. On the meso-scale level, we consider a unit cell of the textile, which has the same average permeability as the macro-scale textile layer. We present a fast and accurate method to compute the permeability of textile reinforcements, based on the finite difference discretisation of the Stokes equations. The input for the CFD simulations (Computational Fluid Dynamics), is a unit cell of the textile model, provided by textile modelling software like WiseTex and TexGen. If intra-yarn flow is taken into account, the Stokes equations are locally extended with a penalty term, resulting in the Brinkman equation. The penalty is computed analytically based on the properties of the fibres inside the yarn. We compare different formulas to compute this penalty. We validate the results of our simulations with permeability values obtained by experiments. Results for woven fabrics, random structures and non-crimp fabrics are presented. Moreover, experimental and computational results are compared for a structure that is designed to minimise the experimental errors. The influence of shear and nesting on the permeability of textiles is discussed. To avoid the 3D-simulation problem, different methods that reduce the dimension of the problem are presented in literature. The Grid2D method reduces the 3D Stokes problem to a 2D Darcy problem. We explore this method, and compare the results with our CFD computations. A second model-reduction method is the pore-network method. This method describes the porous medium as a network of pores, and computes the overall permeability via the law of conservation. The Stokes solver is applied to compute the conductivity of the pores of the network. We explain how our Stokes solver is used for this method. We also compare the results of the method with CFD computed values for samples of porous rock. Hoe zwaarder een auto of vliegtuig, des te groter het verbruik tijdens het transport. Omwille van financiële en ecologische redenen zal men dus auto's en vliegtuigen zo licht mogelijk willen bouwen. Een renner in de tour de France wil dat zijn fiets zo weinig mogelijk weegt zodat hij met een kleiner gewicht de berg op moet. Daarom worden deze transportmiddelen meer en meer van composietmaterialen gemaakt in plaats van staal. Composietmaterialen hebben het voordeel dat ze veel lichter zijn dan staal, maar toch dezelfde stevigheid bieden. Het principe van deze materialen kan vergeleken worden met dat van gewapend beton: een versterking die gevuld wordt met een vloeibaar materiaal dat uithardt. Bij gewapend beton is deze versterking staaldraad, bij composietmaterialen textiel. Het vloeibaar materiaal bij composietmaterialen is een soort hars. De ontwikkeling en productie van hoogwaardige composiet-onderdelen is vandaag de dag nog te duur om composietmaterialen in alle auto's of fietsen te gebruiken. De onderzoeksgroep Composieten en Keramieken van de K.U.Leuven ontwikkelt daarom software om het productieproces te optimaliseren. Een belangrijke input voor deze optimalisaties is de mate waarin het textiel doorlaatbaar is voor hars. De onderzoeksgroep Technisch-Wetenschappelijk Rekenen van de K.U.Leuven ontwikkelde een programma om snel en nauwkeurig deze doorlaatbaarheid te berekenen. Dit doctoraat beschrijft de wiskundige methode waarop dit programma gebaseerd is.


Dissertation
Quantification and classification of magnetic resonance spectroscopic data for brain tumor diagnosis
Authors: ---
ISBN: 9789056829940 Year: 2008 Publisher: Leuven Katholieke Universiteit Leuven

Loading...
Export citation

Choose an application

Bookmark

Abstract

The topic of this thesis belongs to the wide field of biomedical signal processing. The main objective is to improve brain tumor diagnosis based on Magnetic Resonance Spectroscopic (MRS) and Imaging (MRI) data. MRI data are 2D grayscale images fully characterized by the intensity of the pixels. MRS data are signals, usually modeled in the time domain as a sum of decaying complex exponentials. The methods developed or used in this thesis are signal processing or pattern recognition methods. Signal processing methods aimed to clean the data (denoising, removing artefacts, etc) and quantify the metabolite concentrations. For cleaning the data, we use a variety of methods ( FIR filter, state-space, wavelets, smoothing techniques ). When quantifying MRS data, we try to minimize the fitting error assuming parametric or semi-parametric models. In this thesis the nonlinear least squares problem is solved with the Levenberg-Marquardt optimization algorithm. The nonparametric part of the model is a sum of penalized splines in the frequency domain, transformed back into the time domain where the optimization is done. Pattern recognition is composed of feature extraction and classification. In this thesis, we tested several feature extraction methods: PCA, ICA, Kruskal-Wallis, Fisher criterion, Relief-F ; and several classification algorithms: LDA, LS-SVM, Random Forests , ... Magnetic Resonance Spectroscopy has been successfully used in brain tumor diagnosis and represents a complementary aid to the well-known technique, Magnetic Resonance Imaging, by providing metabolic information that is not available with the latter. Both Imaging and Spectroscopy can be used for the grading and typing of brain tumors. Nowadays, MRI is a standard diagnostic tool in hospitals while MRS is still little used since it often requires spectroscopic expertise and additional analysis time. Classifying brain tumors from spectroscopic data is not trivial and requires several steps. The common main steps are preprocessing, feature extraction and, finally, classification of the data. The preprocessing step aims to clean up the data and to normalize them in order to facilitate the extraction of the relevant features (i.e., the relevant information). These features, once selected and extracted, are used in a classifier, whose output is a brain tumor class. The challenge is to improve brain tumor diagnosis based on spectroscopic data. In this thesis, we analyzed methods used in each of the steps of the procedure in order to extract their advantages and limitations. Due to the complexity and diversity of the data and the still limited amount of available data, there is no gold standard procedure which would provide the best classification results. However, this thesis aims to identify the problems that can be encountered during the whole procedure (preprocessing, feature extraction and classification) and to provide possible solutions. In particular, a large part of this thesis has been devoted to the quantification of MRS data aiming to quantify the concentration of the metabolites located in the tissue sample, which remains very complicated, especially when dealing with in vivo MRS(I) data (i.e., data measured from tissue inside the body). Methods based on in vivo data are particularly interesting since they do not require surgery.


Dissertation
A Bayesian network integration framework for modeling biomedical data
Authors: ---
ISBN: 9789460180019 Year: 2008 Publisher: Leuven Katholieke Universiteit Leuven

Loading...
Export citation

Choose an application

Bookmark

Abstract

Microroostertechnologie heeft een grote impact gehad op het kankeronderzoek in het laatste decennium. Recent zijn ook andere technologieën zoals proteomica gebaseerd op massa spectrometrie en microroostertechnologie voor comparatieve genomische hybridisatie opgedoken als data leveranciers met potentieel gelijkaardige impact. Deze technologieën hebben een “top-down” aanpak gemeenschappelijk waarbij het genoom, transcriptoom of proteoom in hun geheel onderzocht worden. Bovendien bevatten de “omics” data die geleverd worden door deze technologieën potentieel informatie betreffende de biologische kenmerken die verantwoordelijk zijn voor het gedrag van tumoren in plaats van klinische of morfologische karakteristieken. In ons onderzoek hebben we onderzocht hoe omics data gebruikt kunnen worden voor het voorspellen van de diagnose, prognose of therapierespons van kankerpatiënten. De hoge dimensionaliteit van omics data echter verhindert de directe interpretatie van deze data and vereist specifieke modelleringstechnieken. Biomedische besluitvormingssystemen hebben als doel om dit probleem aan te pakken en het gebruik hiervan is gericht op het bouwen van betrouwbare modellen ter ondersteuning van de behandeling van patiënten. Meer specifiek hebben we gebruik gemaakt van een Bayesiaans netwerk als besluitvormingsysteem. Hiervoor hebben we een raamwerk uitgebouwd voor de integratie van heterogene en hoog dimensionale data waarbij twee verschillende types data werden gemodelleerd: primaire en secundaire data. We definiëren primaire data als patiënt specifiek terwijl secundaire data specifiek zijn voor de entiteiten binnen elk omics dataset. Deze entiteiten zijn genen voor het genoom, mRNA voor het transcriptoom en proteïnen voor het proteoom. Ten eerste, hebben we het gebruik van Bayesiaanse netwerken geïllustreerd voor het modelleren van twee primaire databronnen: klinische en genomische data. Ten tweede, hebben we algoritmes ontwikkeld om primaire databronnen te integreren. Ten slotte, hebben we het raamwerk uitgebreid om ook secundaire databronnen te kunnen gebruiken. Naast het gebruik van publiek beschikbare data en ook door de aanwezigheid van unieke data verzameld in de Universitaire Ziekenhuizen Leuven, hebben we onze methodologie ook toegepast op data van ovarium- en darmkankerpatiënten. Onze resultaten tonen het potentieel aan van het integreren van primaire en secundaire databronnen. Tenslotte, kijken we naar de toekomst en vermelden we enkele uitdagingen om dit onderzoek voort te zetten. In the past decade microarray technology has had a big impact on cancer research. More recently other technologies such as mass spectrometry-based proteomics or array comparative genomic hybridization have emerged as data providers with potentially similar impact. These technologies have a top-down approach in common instead of a bottom-up. Whether it is the genome, transcriptome or proteome that is targeted, each technology attempts to capture its corresponding ‘omics’ as a whole. Moreover, the data resulting from these technologies potentially hold information on the actual biological reasons why subsets of tumors behave differently, instead of relying on general clinical data or morphological characteristics of a tumor. In our research, we investigated how omics data can be used to predict diagnosis, prognosis or therapy response in cancer. The large dimensionality of omics data however prohibits direct interpretation and requires dedicated models. Biomedical decision support modeling attempts to tackle this issue and aims to build reliable models. We focused on the use of Bayesian networks as biomedical decision support model. More specifically, we developed a Bayesian network integration framework able to integrate heterogeneous and high-dimensional data. We consider two specific types of data in our framework: patient specific data or entity specific data. We define patient specific data as primary data and entity specific data as secondary data. The latter characterizes entities within each omics layer such as genes in the genome, mRNA in the transcriptome or proteins in the proteome. First, we illustrate Bayesian network modeling on two primary data sources separately: clinical and genomic data. Secondly, we develop algorithms to integrate primary data sources. Finally, we extend the framework to include secondary data sources. Besides the use of publicly available data and due to the availability of unique data gathered at the University Hospitals Leuven, we applied our framework on two main cancer sites: ovarian cancer and rectal cancer. Our results show the potential of integrating both primary and secondary data sources. Finally, we look into the future and project which research avenues should be pursued to improve the framework. Ziektes zoals kanker worden veroorzaakt door een opeenstapeling van mutaties in normale cellen. Na verloop van tijd kan dit een ongebreidelde celgroei veroorzaken die in veel gevallen levensbedreigend is. Op dit moment is het voor veel kankertypes moeilijk om de behandeling af te stemmen op de patiënt omdat in de meeste gevallen enkel indirecte gegevens beschikbaar zijn zoals leeftijd van de patiënt of de grootte van de tumor. Echter, nieuwe technologische evoluties zoals microroostertechnologie laten toe om wel de biologische karakteristieken van een tumor te meten. Dit door bijvoorbeeld de activiteit van alle genen te meten in het menselijk genoom. In dit doctoraatsonderzoek hebben we gebruik gemaakt van gegevens van deze nieuwe technologieën om zo een betere voorspelling mogelijk te maken van diagnose, prognose of therapieresponse op maat van de patiënt. Meer specifiek hebben we gebruik gemaakt van een Bayesiaans model om gegevens van verschillende nieuwe technologieën te combineren met kennis uit de literatuur. We hebben onze methode toegepast op gegevens van ovarium- en darmkankerpatiënten en onze resultaten tonen aan dat deze aanpak een verbetering oplevert. We concluderen dat combinatie van gegevens van nieuwe technologieën een gepersonaliseerde behandeling van kankerpatiënten toelaat.


Dissertation
Cryptanalysis and design of synchronous stream ciphers
Authors: ---
ISBN: 9056827251 Year: 2006 Publisher: Leuven Katholieke Universiteit Leuven

Loading...
Export citation

Choose an application

Bookmark

Abstract

Deze thesis is een bijdrage tot het onderzoek naar de cryptanalyse en het ontwerp van stroomcijfers. Stroomcijfers zijn een belangrijke klasse encryptiealgoritmen en worden gebruikt om gegevens te vercijferen in de digitale wereld. Synchrone stroomcijfers, die de beste mix van veiligheid en efficiëntie bieden, worden behandeld. Er wordt een raamwerk voorgesteld dat de voornaamste aanvallen op synchrone stroomcijfers omvat. De aandacht wordt eerst gevestigd op het belang van lineaire cryptanalyse, een statistische aanval die gebruik maakt van de niet-lineaire eigenschappen van de bouwblokken. Een eenvoudig raamwerk wordt voorgesteld, dat wordt toegepast op niet-lineaire filter- en combinatiegeneratoren. Algebraïsche aanvallen hebben een aanzienlijke impact op de cryptanalyse van stroomcijfers die een lineair variërende toestand hebben. Een coherent raamwerk voor deze aanvallen wordt voorgesteld, de eigenschappen waaraan de bouwblokken van het stroomcijfer moeten voldoen worden gekwantificeerd, nieuwe en efficiëntere algoritmen en theoretische grenzen worden voorgesteld. Naast de statistische en algebraïsche eigenschappen zijn er ook structurele vereisten. Dit omhelst trade-off aanvallen en Gok-en-Determineer aanvallen. Het belang van deze cryptanalytische aanvallen wordt besproken en geïllustreerd. Resynchronizatie-aanvallen zijn erg krachtige aanvallen op de initialisatie van stroomcijfers. De oorspronkelijke aanval wordt uitgebreid en beperkingen van de aanval worden weggenomen. Dit wordt bereikt door de aanval verder te verfijnen en door de aanval te combineren met andere methodes van cryptanalyse. Vervolgens bespreken we de implementatie van dergelijke wiskundige bouwblokken. We bestuderen efficiënte en veilige Booleaanse functies voor de filtergenerator en bestuderen beveiligde implementaties van stroomcijfers, waartoe we differentiële vermogensanalyse van synchrone stroomcijfers voorstellen. Onze theoretische uiteenzetting wordt geïllustreerd door toepassing op enkele algoritmen. Zo wordt cryptanalyse van de NESSIE kandidaat Sober-t32, de eSTREAM kandidaten SFINKS en WG, het Bluetooth stroomcijfer E0, het GSM stroomcijfer A5/1 en de Alleged SecurID Hash Function besproken. This thesis is a contribution to the ongoing research in the cryptanalysis and design of stream ciphers, an important class of algorithms used to protect the confidentiality of data in the digital world. We focus on synchronous stream ciphers as these appear to offer the best combination of security and performance. We present a framework that describes the most important classes of attacks on synchronous stream ciphers. We stress the importance of linear cryptanalysis, a statistical attack related to the nonlinearity properties of the building blocks, by developing a simple framework, which we apply to the nonlinear filters and combiners. Algebraic attacks have an important impact on the cryptanalysis of stream ciphers with a linear update function. We present a coherent framework for these attacks, quantify the properties that the stream cipher building blocks should satisfy, present a new and more efficient algorithm and theoretical bounds. Next to statistical and algebraic properties, some structural issues also are of importance, including trade-off attacks and Guess-and-Determine attacks. We also describe and illustrate the relevance of these approaches to cryptanalysis. Resynchronization attacks are very powerful attacks on the initialization of stream ciphers. We extend the resynchronization attack to overcome some limitations of the original attack by further refining the original resynchronization attack and by combining the attack with other cryptanalysis methods. We subsequently discuss the implementation of these mathematical building blocks in practice. We discuss efficient and secure Boolean functions for the filter generator and elaborate on the issue of secure implementation of stream ciphers, by introducing differential power analysis of synchronous stream ciphers. To support our theoretical treatment, we also present practical applications of our analysis to actual primitives. This includes the NESSIE candidate Sober-t32, the eSTREAM candidates SFINKS and WG, the Bluetooth encryption algorithm E0, the GSM stream cipher A5/1 and the Alleged SecurID Hash Function.

Listing 1 - 10 of 70 << page
of 7
>>
Sort by