Tous les articles par Alain Bruant

De formation Ingenieur réseaux & télécom (EISTI), j'ai exercé en tant que responsable technique avant et apr?s vente au sein de la filiale fran?aise d'un constructeur de mat?riels r?seaux dans le domaine industriel. en parall?le, j'?tais le responsable informatique de cette structure Puis je suis pass? c?t? client chez un int?grateur de solutions temps r?el dans la Gestion Technique de B?timent (GTB) ou Centralis?e (GTC) et j'ai mis en place des r?seaux informatiques de la taille d'un b?timent ? celui d'une ville. enfin, j'ai cr?? ma structure et dans ce cadre continue de travailler dans le domaine des r?seaux o? je forme des interlocuteurs sur les r?seaux Ethernet - avec en particulier le domaine industriel. Quand mes formations me laissent du temps, je concois en parall?le des sites Internet dynamiques et interfaces de pilotatage de luminaires pour b?timents me faisant exploiter les diff?rentes facettes de mes exp?riences.

nouveau test qui simplifie le déploiement des services Ethernet de classe transporteur et de liaisons mobiles

cluster_interprozess[1]Avec l’évolution des services Ethernet, les standards fréquemment utilisés comme le RFC 2544 ne permettent plus de valider complètement les ententes de niveaux de service. Afin de pallier les lacunes des méthodes de test actuelles, l’ITU a adopté un nouveau projet de standard, soit l’ITU-T Y.156sam.

En étroite collaboration avec l’organisme de normalisation de l’Union internationale des télécommunications, EXFO est l’une des premières à avoir élaboré une nouvelle méthodologie de test avant-gardiste pour les réseaux Ethernet sur lesquels seront déployés de nouveaux services avancés générés par les technologies de nouvelle génération, nommément la voix, la vidéo, le courriel, la bourse en ligne, etc. Puisqu’ils ont des natures distinctes, les services réagissent tous différemment aux paramètres tels que la latence, la gigue de trames et la perte de trames. Les opérateurs doivent donc savoir comment chaque service réagit selon chacun des scénarios de priorisation du trafic afin de configurer adéquatement leurs réseaux et d’assurer la qualité des services de manière constante.

EtherSAM supporte les nouvelles offres multiservices. Il peut simuler tous les types de services qui seront transmis sur un réseau et qualifier simultanément tous les principaux paramètres des ententes de niveaux de service, et ce, en un seul test pour chacun des services. Il peut valider les mécanismes de qualité de service pour prioriser les différents types de services afin d’évaluer les services plus précisément en plus de déployer et dépanner les services huit fois plus rapidement. La méthodologie EtherSAM est d’autant plus puissante qu’elle permet d’exécuter tous les tests ITU-T Y.156sam avec des mesures bidirectionnelles. Ainsi, puisque les principaux paramètres d’entente de niveaux de service sont mesurés individuellement dans chacune des directions, les services peuvent être activés correctement du premier coup, ce qui constitue le plus haut niveau de confiance possible en matière de tests de services.

Lire l’article complet sur : CNW Telbec…

Il reste moins de 10% d’adresses IP non attribuées

ipv6En Janvier 2009, j’avais publié un article qui annonçait qu’il ne restait que 16% d’adresses IP libres (soit 700 millions) et prédisait la fin des adresses IpV4 en 2010/2011. On passe maintenant sous la barre des 400 millions et la date fatidique approche avant de devoir passer à ‘l’IPv6. Ce qui ne se fera pas si facilement. Aujourd’hui seul un fournisseur d’accès le propose en standard (FREE) et très peu de sites sont disponibles en IPv6

Le stock d’adresses IP non allouées continue à baisser. Il vient de passer sous le seuil symbolique des 10 % de l’espace d’adressage global. C’est la Number Ressource Organization, une structure à but non lucratif qui veille sur cette ressource en voie de disparition, qui l’affirme. Le risque de pénurie totale se rapproche dangereusement vite : elle pourrait intervenir dès le second semestre 2011.

Lire l’article sur : 01net Pro…

Mots clés Technorati : ,,,,

Un WiMAX à 100 Mbit/s attendu pour 2011

wimax L’IEEE devrait fournir cet été l’approbation finale de la norme 802.16m, aussi connue comme « Le WiMAX 2. » L’opérateur Clearwire, qui est la plus grande société à offrir actuellement des services commerciaux WiMAX aux Etats-Unis, a déclaré qu’il prévoit de tester le 802.16m en 2011 avec l’espoir de le déployer en 2012.
Que savons-nous de cette suite du WiMAX ? Elle sera rétro-compatible avec la norme 802.16e, la norme WiMAX actuellement utilisée par les opérateurs aux Etats-Unis. Le 802.16m sera nettement plus rapide que son prédécesseur. Le vice-président du Forum WiMAX, Mohammad Shakouri précise que l’objectif est pour le nouveau standard d’offrir des débits de liaison descendante de plus de 100 Mbit/s pour les utilisateurs. En comparaison, Sprint qui avait lancé son offre XOHM WiMAX commercialement en 2008, fournit des débits de 3,7 Mbit/s à 5 Mbit/s.
Mohammad Shakouri affirme que le 802.16m fournira ces débits plus élevés grâce à une combinaison d’antennes intelligentes et une approche multi-canal. «Pensez-y comme si vous construisiez une autoroute à 20 voies », précise Mohammad Shakouri, décrivant comment …

Lire l’article complet sur : Reseaux-Telecoms.net…

Mots clés Technorati : ,,,

Siemens a reussi une transmission informatique optique a 500Mb/s

led On sait que la LED est un éclairage de l’avenir : plus durable et très économe en énergie – Cette technologie est en pleine expansion. Siemens vient de  réussir un tour de force en utilisant cette technologie comme support de transmission. Avantage sur le WiFi : pas d’onde nocive (?!), des débit plus importants, maîtrise de la diffusion…La transmission à un débit de 500Mb/s a pu avoir lieu sur une distance de 5m en espace libre.

On parle ici de VLC : Visible Light Communication / Communication utilisant la lumière visible.  En octobre 2008, j’avais publié un article présentant cette technologique comme “Info ou Intox” – ce n’est plus une intox. On peut supposer que demain, nos systèmes d’éclairage seront en même temps nos systèmes de communication informatique sans fil.

l’IEEE travaille à standardiser cette transmission depuis 2007 et elle devrait aboutir d’ici la fin 2010.

…Siemens announces that their researchers have improved on their own record for wireless data transfer using white LED light. In collaboration with the Heinrich Hertz Institute in Berlin, they have achieved a data transfer rate of up to 500 Mbit/s, significantly bettering the previous record of 200 Mbit/s….

Lire l’article complet (en anglais) sur : the Industrail Ethernet Book…

Une carte réseau Intel pour la virtualisation

Décidemment, la virtualisation est un marché en évolution constante. Reste à savoir si la carte sera compatible avec les nouveaux standards sur l’esquels travaille l’iEEE.

Intel vient de présenter la première carte réseau Ethernet 10 Gigabits possédant deux ports et étant compatible avec la technologie SR-IOV, il s’agit de l’Intel Server Adapter X520-T2.

Mieux partager les ports PCI-Express

Les deux ports permettent, soit de basculer de l’un à l’autre en cas de panne, soit de combiner la bande passante pour profiter d’un réseau Ethernet 20 Gigabits. Utilisant un contrôleur Intel 82599, cette carte se distingue principalement par sa technologie SR-IOV (Single Root I/O Virtualization) qui optimise le partage des ressources PCI-Express par les machines virtualisées en divisant le port en plusieurs interfaces virtuelles. Cela permet d’offrir un accès direct aux ressources physiques, sans avoir à passer par une émulation logicielle.

Réduire les goulots d’étranglement

Enfin, L’Intel X520-T2 intègre la technologie Intel VT-c qui tente de réduire les goulots d’étranglement que peuvent générer les environnements virtuels. On comprend donc qu’Intel tente d’attirer les entreprises en brandissant le drapeau de la virtualisation, très à la mode en ce moment.
Le prix et la disponibilité de la carte n’ont pas encore été annoncés.

lire l’article sur : Tom’s Hardware…

Standards IEEE pour gérer la commutation des PC virtuels

pc-virtuel L’IEEE travaille sur les standards 802.1Qbg et 802.1Qbh afin d’adresser les problèmes liés à la gestion de machines virtuelles dans les centres de données.

Un serveur n’est pas un switch

La virtualisation a pour effet pervers de placer une lourde responsabilité sur les switchs virtuels qui utilisent les ressources des cartes réseaux et des serveurs lames qui doivent maintenant gérer, entre autres, la sécurité du système, les stratégies et droits de chaque groupe et utilisateur et tout ce qui est associé au switching. Le but du standard 802.1Qbg et 802.1Qbh est de replacer cette charge de travail sur un switch Ethernet physique connectant les unités de stockage et les diverses ressources du réseau.
Pour cela, l’IEEE est en train de développer une fonctionnalité appelée VEPA (Virtual Ethernet Port Aggregation), une extension aux switching physiques et virtuels qui permet de réduire le nombre d’éléments ayant besoin d’être géré par un centre de données (configurations, adresses, sécurité, stratégies, etc.)

L’IEEE 802.1Qbg et 802.1Qbh seront nécessaires dans quelques années

Selon ESG Research, une majorité d’entreprises utilisent entre 5 et 10 machines virtuelles par serveur. Néanmoins, d’ici quelques années ce chiffre devrait grimper à 30, ce qui placera une charge de travail énorme sur le switch virtuel qui devra s’occuper des VLAN, des tags QoS, des zones de sécurités, etc. En permettant à l’hyperviseur de déléguer les tâches de switching à un switch physique, on déplace le problème et on permet aux serveurs de réaliser leur travail de base, offrir de la puissance de calcul pour les applications. Si ces deux standards ne sont donc pas très utiles pour le moment, on imagine que le 802.1Qbg et 802.1Qbh vont être indispensables dans les entreprises d’ici quelques années.

Lire l’article sur : Présence PC…

Mauvaise semaine pour le monde de la sécurité

piratageDeux nouvelles d’importances dans la lutte constante entre Pirates et Hommes de la sécurité : en effet, d’un côté l’on apprend qu’il y a de nouveau une faille dans le chiffrage quantique réputé inviolable. Si la méthode n’est toujours pas remis en cause (l’observation de la clé détruit celle ci et informe donc le destinataire de la corruption), la mise en pratique est toujours aussi complexe et sujette à piratage. Cette fois, il s’agit de l’émetteur qui, après être ébloui par un signal lumineux puissant, accepte la réinjection de la clé piraté et détruite. Normalement cette injection est impossible car il faut utiliser la même polarisation que l’émetteur – hic : après éblouissement, la photodiode réceptrice accepte tous types de polarisation.
A ce propos, lire cet article sur 01netPro…

Deuxième mauvaise nouvelle dans le monde de la sécurité, la clé RSA de 768 bits à été craqué. Il a fallu quand même 1 à 1700 cœurs sur 425 machines et  12 mathématiciens / chercheurs pour casser cette clé de 232 caractères. Casser le chiffrement RSA 1024 bit devrait prendre de 3 à 4 ans. Une clé de 2048 bits est donc maintenant recommandée pour garantir l’inviolabilité de ‘l’information (mais pour combien de temps ?)
Lire cet article à ce propos sur 01netPro…

Le cryptage quantique n’est plus inviolable

Merci à Benoit Minvielle (Hirschmann France) pour le lien vers cet article…

Alors que la loi Hadopi impose l’obligation de sécuriser sa connexion Wi-Fi, un groupe de travail emmené par le professeur Johannes Skaar a démontré que même le cryptage quantique n’était pas parfait. Si la technique reste inviolable, en revanche le matériel ne l’est pas.

Graal de la sécurité informatique, la cryptographie quantique repose sur la mise en œuvre de la mécanique quantique afin de préserver la confidentialité et l’intégrité des données. Réputé inviolable, ce protocole technique a des retombées potentiellement énormes, notamment dans les domaines militaire et commercial. En effet, les différentes armées occidentales tiennent à sécuriser leur transmissions tandis que banques et sites commerciaux veulent assurer à leurs clients une protection complète.

Or, le groupe de travail de l’université norvégienne de sciences et de technologie dirigé par le professeur Johannes Skaar ont trouvé une méthode pour contourner le cryptage quantique. Car si la technique en elle-même est théoriquement inviolable, le matériel lui ne l’est pas. Et ce sont justement ces failles qui sont exploitées par les scientifiques.

Dans sa présentation, l’équipe explique s’appuyer sur une technique d’aveuglement des détecteurs de photons permettant d’obtenir la clé secrète sans jamais se faire détecter. Selon eux, cette procédure n’est absolument pas théorique puisqu’ils ont conçu un dispositif d’écoute et attaqué avec succès leur propre matériel de cryptage quantique.

Et pendant ce temps là, la loi Hadopi impose une obligation de sécuriser son accès à Internet…

Article diffusé sous licence Creative Common by-nc-nd 2.0, écrit par Guillaume Champeau pour Numerama.com

Lire l’article sur : NUMERAMA.com…

Une proposition de GREENwifi

au CES 2011, TRENDnet a annoncé l’intégration de la technologie GREENwifi dans ses solutions de réseau sans fil, qui réduirait la consommation d’énergie jusqu’à 50%.

GREENwifi réduit la consommation d’énergie en utilisant divers méthodes/scénarios. La consommation d’énergie peut être réduite quand l’appareil sans fil est en veille et qu’il n’est pas connecté à un autre client sans fil tel qu’un ordinateur. L’autre scénario serait de réduire la puissance de sortie quand il communique avec un ordinateur qui est à une courte distance du routeur.

Lire l’article sur : ubergizmo