Front-to-Back-Trade Finance. Most Banken, die Handel Dienstleistungen jetzt erkennen, die Notwendigkeit, Kunden ein Best-of-Breed-Trade-Finance-Front-End-System zur Ergänzung ihrer bestehenden Back-Office-Infrastruktur Das Front-End-System sollte einfach zu bedienen Und funktional reich, so dass die Banken können die Kundenzufriedenheit und Beibehaltung zu erhöhen Aufgrund eines Wettbewerbsdrucks, muss ein solches System oft innerhalb von Wochen umgesetzt werden, um konkrete Ergebnisse für Bankkunden zu demonstrieren. Um die Nutzung und Effizienz der Kunden-Front-End zu maximieren, sollte es Voll integriert mit dem Back-Office-Handelsfinanzierungssystem der Bank. Allerdings ist die Etablierung einer End-to-End-Handelsfinanzierungslösung, die sowohl Kunden-Front-End - als auch Bank-Back-Office-Systeme beinhaltet, eine herausfordernde Aufgabe. Die Vor-zu-Rücken-Integration kann sich als schwierig erweisen Aufgrund von Legacy-Back-Office-Systemen, die oft nicht in der Lage sind, Echtzeit-Feeds zu erhalten, die Dateneingabe von Kunden zu erfassen und die benötigten Daten an den Kunden herunterzuladen S auf die Schaffung einer innovativen, Weltklasse-Front-to-Back-Lösung von qualitativ hochwertigen Kundenservice von einem Anbieter von repute. End-to-End Trade Finance Solution. Surecomp bietet integrierte End-to-End-Trade-Finance-Lösungen, bestehend aus Best - Of-Class-Front-End - und Back-Office-Systemen Auf der Backoffice-Seite des Banks bietet Surecomp mehrere Systeme an, die jeweils auf unterschiedliche Nutzungsniveaus, geografische Lage und IT-Infrastruktur ausgerichtet sind. Auf der Kundenseite bietet Surecomp eine Einzelnes, vereinheitlichtes J2EE-konformes System, das vollständig mit allen Surecomp-Back-Office-Systemen integriert ist. Aufgrund seiner hoch offenen Architektur lässt sich das Front-End-System auch problemlos in Drittanbieter - oder Inhouse-Back-Office-Systeme integrieren. Unabhängig davon Eine Bank s Standort, Größe, geografische Ausbreitung von Operationen oder Transaktionsvolumen, Surecomp hat eine Front-to-Back-Handelsfinanzierung Lösung, die die spezifischen Bedürfnisse der einzelnen Kunden erfüllt. Surecomp schätzt, dass die vollständige Umsetzung der Back-Office-Sys Tem kann Zeit in Anspruch nehmen, wodurch der Einsatz einer Front-to-Back-Lösung verzögert wird. Die Bank kann zum Beispiel eine Anpassung des Systems erfordern. Darüber hinaus muss das System installiert sein, das auf die spezifischen Praktiken der Bank konfiguriert ist und an mehrere interne Systeme angeschlossen ist , Getestet und in die Produktion verlagert Infolgedessen dauert die Implementierung von Surecomps Back-Office-Systemen in der Regel eine Reihe von Monaten. Doch nicht jede Bank ist bereit, auf die Fertigstellung der Back-Office-Implementierung zu warten, bevor sie ihre Kunden-Front-End-Services ausführt Weshalb Surecomp auch eine eigenständige Version seines Front-End-Systems zur Verfügung stellt, die in wenigen Wochen als Zwischenlösung gestartet werden kann. Unmittelbar nach Fertigstellung der Backoffice-Fertigung kann die voll integrierte Lösung zur Verfügung gestellt werden Die Bank. This-End-to-End-Ansatz bedeutet, dass Banken Lizenzierung eines der Surecomp-Back-Office-Systeme zusammen mit seinem Front-End-System Gesicht wenig-zu-keine Integration Herausforderungen. End-to-End-Lösung B Enefits. Banks auf der ganzen Welt, die bereits eine Surecomp-Front-to-Back-Handelsfinanzierungslösung implementiert haben, ernten nun die Vorteile, die sie zusammen mit ihren Kunden die integrierte End-to-End-Lösung mit großer Begeisterung umfassen. Bank Perspective. Rapid End-to-End-Implementierung und Integration. Vast reduzierte Dateneingabe durch automatische Daten-Mapping. Faster Transaktion Turnaround komplexen Transaktionen abgeschlossen in Minuten. Prozenten Anstieg der Geschäftsvolumen durch erhöhte Kundenzufriedenheit. Extremely Short ROI so niedrig wie 6 Monate. Kundenperspektive .24 X 7 Systemnutzung keine Ausfallzeiten. Extremly schnelle Implementierung von Front-End-System. Internet Zugang von jedem Ort keine Software-Installation. Kundeninitiierung jeder Art von Trade Finance Transaktion. Easy Portfolio-Organisation und Management über mehrsprachige Hilfe tool. Why Surecomp. Proven Surecomp s Handelsfinanzierungssysteme sind bereits bei Hunderten von Banken und Unternehmen weltweit, einschließlich der großen nationalen, regio implementiert Nal und globale banken. Experienced Surecomp ist seit 1987 in der Handelsfinanzierung tätig und hat umfangreiche Kenntnisse über lokale und regionale Praktiken erworben. Die hochkarätigen Handelsfinanzierungslösungen von Surecomp werden im eigenen Haus entwickelt Von Teams von engagierten IT - und Banking-Spezialisten. Best-of-Breed Surecomps Back-Office und Front-End-Systeme sind weithin anerkannt als die führenden Angebote in ihren jeweiligen Bereichen. Major Paraguayan Bank Lizenzen Surecomp s Java End-to-End Trade Finance Solution. Capital Markets. Derivate sind komplex. Die sich schnell verändernde Regulierungs - und Technologielandschaft verwandelt die Finanzmärkte Anpassung an diese neuen Marktbedingungen ist entscheidend, dass Dodd-Frank und EMIR die neuen Realitäten mit dem elektronischen Handel, der obligatorischen Clearing - und Handelsberichterstattung sind, die die Derivatgeschäfte erheblich beeinträchtigen Und Workflow Sell-Side-Unternehmen müssen alle Markt-, Kredit - und Liquiditätsrisiken in ihren Preis - und Risikomanagement-Berechnungen genau widerspiegeln Die von Basel III bedingten Eigenkapitalanforderungen bieten zusätzlichen Druck auf die Rentabilität. Calypso macht sie einfach. Calypso s Cross-Asset Front-to-Back-Plattform für Handel, Verarbeitung, Risikomanagement und Buchhaltung angepasst, um alle neuen Aspekte der gelöschten und OTC-Derivate-Märkte zu behandeln Unsere Lösungen ermöglichen es den Kunden, die schnell wandelnden Anforderungen unserer Branche zu erfüllen, ohne kostspielige technologische Entwicklungen aufzuwerfen. Integrierte Suite von Cross-Asset-Trading - und Risikomanagement-Lösungen. Trading Floor Architecture. Trading Floor Architecture. Executive Übersicht. Erweiterte Konkurrenz, höhere Marktdatenvolumen, Und neue regulatorische Anforderungen sind einige der treibenden Kräfte hinter Industrie-Änderungen Unternehmen versuchen, ihre Wettbewerbsfähigkeit zu halten, indem sie ständig ihre Handelsstrategien ändern und die Geschwindigkeit des Handels erhöhen. Eine tragfähige Architektur muss die neuesten Technologien aus Netzwerk - und Anwendungsdomänen einschließen Muss modular sein, um einen überschaubaren Weg zu schaffen, um ea zu entwickeln Ch-Komponente mit minimaler Störung des Gesamtsystems Die von diesem Papier vorgeschlagene Architektur basiert auf einem Service-Framework. Wir untersuchen Dienstleistungen wie Ultra-Low Latency Messaging, Latenzüberwachung, Multicast-, Computing-, Speicher-, Daten - und Anwendungsvirtualisierung, Trading-Resiliency, Trading-Mobilität und Thin-Client. Die Lösung für die komplexen Anforderungen der nächsten Generation Handelsplattform muss mit einer ganzheitlichen Denkweise gebaut werden, über die Grenzen der traditionellen Silos wie Business-und Technologie-oder Anwendungen und Netzwerke. Dieses Dokument ist das Hauptziel zu sein Bieten Richtlinien für den Aufbau einer hochverfügbaren Handelsplattform und optimieren den Rohdurchsatz und die Nachrichtenrate sowohl für Marktdaten als auch für FIX-Handelsaufträge. Um dies zu erreichen, schlagen wir die folgenden Technologien zur Latenzreduzierung vor. High-Speed-Inter-Connect InfiniBand oder 10 Gbit / s Konnektivität für den Trading-Cluster. High-Speed-Messaging-Bus. Anwendungsbeschleunigung über RDMA ohne Applikations-Re-Code. Echtzeit-Latenzüberwachung und Re-Richtung des Handelsverkehrs auf den Weg mit minimaler Latenz. Industrie Trends und Herausforderungen. Next-Generation Handelsarchitekturen müssen auf erhöhte Anforderungen an Geschwindigkeit, Volumen und Effizienz reagieren Zum Beispiel das Volumen der Optionen Markt Daten werden voraussichtlich nach der Einführung von Optionen Penny Trading im Jahr 2007 verdoppeln Es gibt auch regulatorische Anforderungen für die beste Ausführung, die Handling Preis-Updates mit Raten, die 1M msg sec für den Austausch Ansatz Sie benötigen auch Sichtbarkeit in die Frische der Daten und Beweis, dass Der Klient hat die bestmögliche Ausführung erhalten. Kurzfristig sind die Handels - und Innovationsgeschwindigkeiten die wichtigsten Unterscheidungsmerkmale Eine zunehmende Anzahl von Trades wird durch algorithmische Trading-Applikationen behandelt, die so nah wie möglich an den Trade-Execution-Ort gestellt werden. Eine Herausforderung mit diesem Black-Box-Handel Motoren ist, dass sie die Volumenerhöhung durch die Erteilung von Aufträgen nur, um sie zu stornieren und re-submit ihnen die Ursache dieser beh Avior ist ein Mangel an Sichtbarkeit, in welchen Veranstaltungsort die beste Ausführung bietet Der menschliche Trader ist nun ein Finanzingenieur, ein quantitativer Analytiker mit Programmierkenntnissen, die Handlungsmodelle anpassen können. Unternehmen entwickeln neue Finanzinstrumente wie Wetterderivate oder Cross-Asset-Class-Trades Und sie müssen die neuen Anwendungen schnell und in einer skalierbaren Art und Weise einsetzen. Auf lange Sicht sollte die wettbewerbsfähige Differenzierung aus der Analyse kommen, nicht nur das Wissen Die Star-Händler von morgen übernehmen das Risiko, erzielen wahre Klienteneinsicht und konsequent schlagen die Marktquelle IBM. Business Resilience ist seit dem 11. September 2001 ein wichtiges Anliegen der Handelsfirmen. Lösungen in diesem Bereich reichen von redundanten Rechenzentren, die sich in verschiedenen Geografien befinden und mit mehreren Handelsplätzen verbunden sind, um virtuelle Trader-Lösungen anzubieten, die den Krafthändlern den Großteil der Funktionalität eines Trading-Bodens bieten In einer abgelegenen Lage. Die Finanzdienstleistungsbranche ist eine der anspruchsvollsten in Bezug auf die IT Anforderungen Die Industrie erlebt einen architektonischen Wandel hin zu serviceorientierten Architekturen SOA, Web Services und Virtualisierung von IT-Ressourcen SOA nutzt die Steigerung der Netzwerkgeschwindigkeit, um eine dynamische Bindung und Virtualisierung von Softwarekomponenten zu ermöglichen. Dies ermöglicht die Erstellung neuer Applikationen ohne Verlust Die Investition in bestehende Systeme und Infrastruktur Das Konzept hat das Potenzial, die Art und Weise, wie die Integration durchgeführt wird, zu revolutionieren, was eine deutliche Reduzierung der Komplexität und der Kosten einer solchen Integration ermöglicht. Ein weiterer Trend ist die Konsolidierung von Servern in Rechenzentrums-Server-Farmen, während Trader-Tische nur haben KVM-Erweiterungen und Ultra-Thin Clients wie zB SunRay - und HP-Blade-Lösungen High-Speed-Metro Area Networks ermöglichen es, Marktdaten zwischen verschiedenen Standorten zu multicast zu machen und so die Virtualisierung des Trading Floor zu ermöglichen. High-Level Architecture. Figure 1 zeigt die High-Level-Architektur Einer Handelsumgebung Die Tickerpflanze und die Algorithmen C Handelsmotoren befinden sich im Hochleistungs-Handelscluster im Firmen-Rechenzentrum oder an der Börse. Die menschlichen Händler befinden sich im Bereich der Endbenutzeranwendungen. Funktionell gibt es zwei Anwendungskomponenten in der Unternehmenshandelsumgebung, Verleger und Abonnenten Messaging-Bus bietet den Kommunikationsweg zwischen Verlagen und Abonnenten. Es gibt zwei Arten von Verkehrsspezifisch für eine Handelsumgebung. Marktdaten liefert Preisinformationen für Finanzinstrumente, Nachrichten und andere wertschöpfende Informationen wie analytics Es ist unidirektional und sehr latenzempfindlich, typischerweise über UDP-Multicast geliefert. Es wird in Updates sek und in Mbps gemessen Marktdaten fließen von einem oder mehreren externen Feeds, die von Marktdatenanbietern wie Börsen, Datenaggregatoren und ECNs kommen. Jeder Anbieter hat ein eigenes Marktdatenformat. Die Daten werden von Feed Handlern, spezialisierten Anwendungen empfangen, die die Daten normalisieren und reinigen und dann an Datenverbraucher senden Pricing-Engines, algorithmische Trading-Anwendungen oder menschliche Händler Sell-Side-Unternehmen senden auch die Marktdaten an ihre Kunden, Buy-Side-Unternehmen wie Investmentfonds, Hedgefonds und andere Vermögensverwalter Einige Buy-Side-Unternehmen können entscheiden, direkte Feeds zu erhalten Aus dem Austausch, reduzieren Latenz. Figure 1 Trading Architecture für eine Buy Side Sell Side Firm. There ist kein Industriestandard für Marktdaten-Formate Jeder Austausch h Als ihr proprietäres Format Finanzielle Content-Anbieter wie Reuters und Bloomberg aggregieren verschiedene Quellen von Marktdaten, normalisieren sie und fügen Nachrichten oder Analysen hinzu. Beispiele für konsolidierte Feeds sind RDF Reuters Data Feed, RWF Reuters Wire Format und Bloomberg Professional Services Data. To liefern Niedrigere Latenz-Marktdaten, haben beide Anbieter Echtzeit-Marktdaten-Feeds veröffentlicht, die weniger verarbeitet und weniger Analytik haben. Bloomberg B-Pipe Mit B-Pipe verbindet Bloomberg ihre Marktdaten-Feeds von ihrer Distributionsplattform, weil ein Bloomberg-Terminal nicht benötigt wird, um B-Pipe Wombat und Reuters zu bekommen. Feed Handler haben Unterstützung für B-Pipe angekündigt. Eine Firma kann entscheiden Um Feeds direkt von einem Austausch zu erhalten, um die Latenz zu reduzieren Die Gewinne in der Übertragungsgeschwindigkeit können zwischen 150 Millisekunden bis 500 Millisekunden liegen. Diese Feeds sind komplexer und teurer und die Firma muss ihre eigene Tickeranlage aufbauen und pflegen. Trading Orders Diese Art von Traffic trägt die tatsächlichen Trades Es ist bidirektional und sehr latenzempfindlich Es wird in Nachrichten sek und Mbps gemessen Die Aufträge stammen aus einer Kaufseite oder verkaufen Seite Firma und werden an Handelsplätze wie ein Exchange oder ECN für geschickt Ausführung Das gängigste Format für den Auftragstransport ist FIX Financial Information Die Applikationen, die FIX-Meldungen behandeln, heißen FIX-Engines und sie stellen sich mit den Bestellmanagementsystemen OMS zusammen. Eine Optimierung auf FIX heißt FAST Fix Adapted for Streaming, bei der ein Komprimierungsschema reduziert wird Nachrichtenlänge und in Wirklichkeit reduzieren Latenz FAST ist mehr auf die Bereitstellung von Marktdaten ausgerichtet und hat das Potenzial, ein Standard-FAST geworden kann auch als Kompression Schema für proprietäre Marktdaten-Formate verwendet werden. Um die Latenz zu reduzieren, können Unternehmen entscheiden, Den direkten Marktzugang einrichten DMA. DMA ist der automatisierte Prozess der Weiterleitung eines Wertpapierauftrags direkt an einen Ausführungsort und damit die Intervention durch eine Drittanbieter-GlossarId 383 DMA erfordert eine direkte Verbindung zum Ausführungsort. Der Messaging-Bus ist eine Middleware-Software von Anbietern wie Tibco, 29West, Reuters RMDS oder eine Open-Source-Plattform wie AMQP. Der Messaging-Bus verwendet einen zuverlässigen Mechanismus, um Nachrichten zu liefern Der Transport kann über TCP IP TibcoEMS, 29West, RMDS und AMQP oder UDP Multicast TibcoRV, 29West und RMDS durchgeführt werden Ein wichtiges Konzept in der Nachrichtenverteilung ist der Themenstrom, der eine Untermenge von Marktdaten ist, die durch Kriterien wie Tickersymbol definiert sind , Industrie oder ein bestimmter Korb von Finanzinstrumenten Abonnenten beitreten Themengruppen, die einem oder mehreren Unterthemen zugeordnet sind, um nur die relevanten Informationen zu erhalten. In der Vergangenheit haben alle Händler alle Marktdaten erhalten. Bei den aktuellen Verkehrsmengen wäre das Sub-optimal. Das Netzwerk spielt eine wichtige Rolle im Handelsumfeld Die Marktdaten werden in den Handelsplatz transportiert, wo sich die menschlichen Händler über ein Campus - oder Metro-Bereichs-Hochgeschwindigkeitsnetz befinden Arbeit Hochverfügbarkeit und geringe Latenz sowie hoher Durchsatz sind die wichtigsten Kennzahlen. Die hochleistungsfähige Handelsumgebung hat die meisten ihrer Komponenten in der Data Center Serverfarm Um die Latenz zu minimieren, müssen die algorithmischen Handelsmotoren in der Nähe liegen Der Futtermittel-Handler, FIX-Motoren und Auftragsmanagementsysteme Ein alternatives Bereitstellungsmodell hat die algorithmischen Handelssysteme, die sich an einem Austausch oder einem Dienstanbieter mit einer schnellen Konnektivität zu mehreren Börsen befinden. Thafenmodelle. Es gibt zwei Bereitstellungsmodelle für eine leistungsstarke Handelsplattform Firmen können sich für eine Mischung aus beiden entscheiden. Rechenzentrum des Handelsunternehmens Abbildung 2 Dies ist das traditionelle Modell, in dem eine vollwertige Handelsplattform von der Firma mit Kommunikationsverbindungen zu allen Handelsplätzen entwickelt und gepflegt wird. Latenzzeit variiert mit der Geschwindigkeit der Links und der Anzahl der Hopfen zwischen Die Firma und die Veranstaltungsorte. Bild 2 Traditionelles Einsatzmodell. Co-Standort am Handelsplatzaustausch, Finanzdienstleister FSP Abbildung 3.Die Handelsfirma entfaltet ihre automatisierte Handelsplattform so nah wie möglich an die Ausführungsorte, um die Latenz zu minimieren. Figure 3 Hosted Deployment Model. Services-orientierte Trading Architecture. We sind Schlägt ein dienstleistungsorientiertes Framework für den Aufbau der Handelsarchitektur der nächsten Generation vor. Dieser Ansatz bietet einen konzeptionellen Rahmen und einen Implementierungspfad, der auf Modularisierung und Minimierung von Inter-Abhängigkeiten basiert. Dieses Framework bietet Unternehmen eine Methodik an. Bewerten Sie ihren aktuellen Stand in Bezug auf Dienstleistungen. Priorisierung von Dienstleistungen auf der Grundlage ihres Wertes für das Geschäft. Entwickeln Sie die Handelsplattform mit einem modularen Ansatz in den gewünschten Zustand. Die Hochleistungshandelsarchitektur beruht auf den folgenden Services, wie sie in dem in Abbildung 4 dargestellten Dienstleistungsarchitektur-Framework definiert sind. Abbildung 4 Service Architecture Framework für High Performance Trading. Ultra-Low Latency Messaging Service. Dieser Service wird durch den Messaging-Bus, die ein Software-System, das das Problem der Verbindung von vielen zu vielen Anwendungen Das System besteht aus. Eine Reihe von vordefinierten Meldungsschemata. Eine Reihe von gemeinsamen Befehlsnachrichten. Eine gemeinsame Anwendungsinfrastruktur zum Versenden der Nachrichten an Empfänger Die freigegebene Infrastruktur kann auf einem Nachrichtenbroker oder einem Publish-Abonnement-Modell basieren. Die Schlüsselanforderungen für den Nachrichtenbus der nächsten Generation sind Quelle 29West. Niedrigste Latenz e g weniger als 100 Mikrosekunden. Stabilität unter Schwerlast e g mehr als 1 4 Mio. msg sec. Kontrolle und Flexibilität Ratensteuerung und konfigurierbare Transporte. Es gibt Bemühungen in der Branche zu standardisieren die Messaging-Bus Advanced Message Queuing Protocol AMQP ist ein Beispiel für eine offene Standard von JP Morgan Chase und unterstützt von einer Gruppe von Anbietern wie Cisco, Envoy Technologies , Red Hat, TWIST Process Innovations, Iona, 29West und iMatix Zwei der Hauptziele sind es, einen einfacheren Weg zur Interoperabilität für Anwendungen zu schaffen, die auf verschiedenen Plattformen und Modularitäten geschrieben sind, so dass die Middleware leicht weiterentwickelt werden kann Begriffe ist ein AMQP-Server analog zu einem E-Mail-Server mit jedem Austausch, der als Nachrichtenübertragungsagent fungiert, und jede Nachrichtenwarteschlange als Postfach. Die Bindungen definieren die Routingtabellen in jedem Übertragungsagenten. Veröffentlichen senden Nachrichten an einzelne Übertragungsagenten, die dann weiterleiten Die Meldungen in Postfächern Die Konsumenten nehmen Nachrichten aus Postfächern, die ein leistungsstarkes und flexibles Modell erstellen, das eine einfache source. Latency Monitori ist Ng Service. Die wichtigsten Voraussetzungen für diesen Service sind. Sub-Millisekunden-Granularität von Messungen. Echtzeit-Sichtbarkeit ohne Hinzufügen von Latenz zum Handelsverkehr. Fähigkeit, die Latenz der Anwendungsverarbeitung von der Netzwerk-Transit-Latenz zu unterscheiden. Fähigkeit, hohe Nachrichtenraten zu behandeln. Stellen Sie eine programmatische Schnittstelle für Handelsanwendungen bereit, um Latenzdaten zu empfangen, so dass algorithmische Handelsmotoren sich an veränderte Bedingungen anpassen können. Verknüpfen Sie Netzwerkereignisse mit Anwendungsereignissen für Fehlerbehebungszwecke. Die Latenzzeit kann als das Zeitintervall definiert werden, wenn ein Handelsauftrag gesendet wird und wenn die gleiche Reihenfolge von der empfangenden Partei quittiert und bearbeitet wird. Die Anpassung der Latenzproblematik ist ein komplexes Problem Ein ganzheitlicher Ansatz, der alle Latenzquellen identifiziert und unterschiedliche Technologien auf verschiedenen Ebenen des Systems anwendet. Figur 5 zeigt die Vielfalt der Komponenten, die Latenz auf jeder Schicht des OSI-Stapels einführen können. Außerdem gibt es jede Latenzquelle mit einer möglichen Lösung und Eine Monitoring-Lösung Dieser Layer-Ansatz kann Unternehmen eine strukturierte Art, das Latenz-Problem anzugreifen, wobei jede Komponente als Service gedacht und konsequent über die Firma hinweg behandelt werden kann. Ein genauer Maßstab für den dynamischen Zustand dieses Zeitintervalls gegenüber der Alternative Routen und Ziele können bei taktischen Handelsentscheidungen von großer Hilfe sein. Die Fähigkeit, die zu identifizieren Genaue Standort der Verzögerungen, ob im Kunden-Rand-Netzwerk, der zentrale Verarbeitungs-Hub oder die Transaktions-Anwendungsebene, entscheidet deutlich die Fähigkeit von Dienstleistern, ihre Handels-Service-Level-Vereinbarungen zu erfüllen SLAs Für Buy-Side - und Sell-Side-Formulare, Sowie für Markt-Datensyndikatoren, die schnelle Identifizierung und Entfernung von Engpässen übersetzt direkt in verbesserte Handelsmöglichkeiten und Umsatz. Figure 5 Latency Management Architecture. Cisco Low-Latency Monitoring Tools. Traditionelle Netzwerk-Monitoring-Tools arbeiten mit Minuten oder Sekunden Granularität Next - Erzeugung von Handelsplattformen, vor allem jene, die algorithmischen Handel unterstützen, erfordern Latenzen weniger als 5 ms und extrem niedrige Pufferverluste Auf einem Gigabit LAN kann ein 100 ms microburst 10.000 Transaktionen verloren gehen oder übermäßig verzögert werden. Cisco bietet seinen Kunden eine Auswahl an Werkzeuge zur Messung der Latenz in einer Handelsumgebung. Bandbreite Qualitätsmanager BQM OEM von Corvil. Cisco AON-basierte Financial Services Latency Monitoring-Lösung FSMS. Bandwidth Quality Manager. Bandwidth Quality Manager BQM 4 0 ist ein Netzwerk-Netzwerk-Performance-Management-Produkt der nächsten Generation, das es Kunden ermöglicht, ihr Netzwerk für kontrollierte Latenz - und Verlustleistung zu überwachen und bereitzustellen. Während BQM Ist nicht ausschließlich auf Trading-Netzwerke ausgerichtet, seine Mikrosekunden-Sichtbarkeit kombiniert mit intelligenten Bandbreiten-Provisioning-Funktionen machen es ideal für diese anspruchsvollen Umgebungen. Cisco BQM 4 0 implementiert eine breite Palette von patentierten und zum Patent angemeldete Verkehrsmessung und Netzwerk-Analyse-Technologien, die dem Anwender beispiellose geben Sichtbarkeit und Verständnis für die Optimierung des Netzwerks für maximale Anwendungsleistung. Cisco BQM wird nun auf der Produktfamilie von Cisco Application Deployment Engine ADE unterstützt Die Cisco ADE Produktfamilie ist die Plattform der Wahl für Cisco Netzwerkmanagement Anwendungen. BQM Benefits. Cisco BQM Mikro-Sichtbarkeit ist die Abilit Y zu erfassen, zu messen und zu analysieren Latenz, Jitter und Verlust induzieren Verkehrsereignisse bis hin zu Mikrosekunden Ebenen der Granularität mit pro Paketauflösung Dies ermöglicht Cisco BQM zu erkennen und zu bestimmen, die Auswirkungen von Verkehrsereignissen auf Netzwerk Latenz, Jitter und Verlust Critical für Trading-Umgebungen ist, dass BQM Latenz-, Verlust - und Jitter-Messungen einsetzen kann, sowohl für TCP - als auch für UDP-Multicast-Verkehr. Dies bedeutet, dass es sowohl für den Trading - als auch für den Marktdaten-Feeds nahtlos berichtet. Mit dem BQM können Sie einen umfassenden Satz von Schwellenwerten festlegen Microburst-Aktivität, Latenz, Verlust, Jitter, Auslastung usw. auf allen Schnittstellen BQM betreibt dann eine Hintergrund-Rolling-Paket-Capture Wenn eine Schwellenverletzung oder ein anderes potenzielles Leistungsverschlechterungsereignis auftritt, löst es Cisco BQM aus, die Paketaufnahme auf Festplatte für spätere Analyse zu speichern Ermöglicht es dem Benutzer, sowohl den Anwendungsverkehr, der von der Leistungsverschlechterung betroffen war, als Ganzes zu untersuchen E Verkehr, der die Leistungsverschlechterung der Täter verursacht Dies kann erheblich reduzieren die Zeit verbrachte die Diagnose und die Behebung von Netzwerk-Performance-Probleme. BQM ist auch in der Lage, detaillierte Bandbreite und Qualität der Service QoS Politik Bereitstellung Empfehlungen, die der Benutzer direkt anwenden können, um das gewünschte Netzwerk zu erreichen Performance. BQM Messungen Illustriert. Um den Unterschied zwischen einigen der herkömmlicheren Messtechniken und der Sichtbarkeit von BQM zu verstehen, können wir einige Vergleichsgraphen betrachten. Im ersten Satz von Graphen Abbildung 6 und Abbildung 7 sehen wir den Unterschied zwischen dem Latenz gemessen durch BQM s Passive Network Quality Monitor PNQM und die Latenz gemessen durch Injektion Ping-Pakete alle 1 Sekunde in den Verkehrsstrom. In Abbildung 6 sehen wir die Latenz gemeldet von 1-Sekunden-ICMP-Ping-Pakete für echten Netzwerkverkehr wird es durch 2 geteilt Um eine Schätzung für die Einwegverzögerung zu geben. Es zeigt die Verzögerung bequem unter etwa 5ms für fast alle Time. Figure 6 Latency, die von 1-Sekunden-ICMP-Ping-Pakete für den realen Netzwerkverkehr gemeldet wird. In Abbildung 7 sehen wir die Latenz, die von PNQM für denselben Verkehr zur gleichen Zeit gemeldet wird. Hier sehen wir, dass durch Messung der Einweg-Latenz des Ist - Anwendungspakete, wir bekommen ein radikal unterschiedliches Bild Hier ist die Latenz zu sehen, um etwa 20 ms zu schweben, mit gelegentlichen Bursts weit höher Die Erklärung ist, dass, weil Ping Pakete nur jede Sekunde sendet, ist es völlig fehlt die meisten der Anwendung Verkehr Latenz In Tatsache, Ping-Ergebnisse zeigen in der Regel nur Runde Ausbreitung Verspätung statt realistische Anwendung Latenz über das Netzwerk. Figure 7 Latency von PNQM für Real Network Traffic berichtet. In der zweiten Beispiel Abbildung 8, sehen wir den Unterschied in der gemeldeten Link Last oder Sättigung Ebenen zwischen Eine 5-minütige durchschnittliche Ansicht und eine 5 ms Microburst-Sicht BQM kann über Microbursts bis zu etwa 10-100 Nanosekunden Genauigkeit berichten Die grüne Linie zeigt die durchschnittliche Auslastung bei 5-minut E durchschnittlich bis zu 5 Mbits s Das dunkelblaue Plot zeigt die 5ms Microburst-Aktivität, die zwischen 75 Mbits s und 100 Mbits s erreicht, die LAN-Geschwindigkeit effektiv BQM zeigt diese Granularität für alle Anwendungen und es gibt auch klare Provisioning Regeln, um den Benutzer zu aktivieren oder zu neutralisieren diese microbursts. Figure 8 Unterschied in der gemeldeten Link Last zwischen einer 5-Minuten-Durchschnitt-Ansicht und eine 5 ms Microburst View. BQM-Bereitstellung im Trading Network. Figure 9 zeigt eine typische BQM-Bereitstellung in einem Handel Network. Figure 9 Typische BQM-Bereitstellung in einem Trading Network. BQM kann dann verwendet werden, um diese Art von Fragen zu beantworten. Sind irgendwelche meiner Gigabit-LAN-Core-Links für mehr als X Millisekunden gesättigt Ist dies Verluste verursachen Welche Links würden am meisten von einem Upgrade auf Etherchannel oder 10 Gigabit-Geschwindigkeiten profitieren. Welcher Anwendungsverkehr verursacht die Sättigung meiner 1 Gigabit Links. Ist einer der Marktdaten, die End-to-End-Verlust erleben. Wie viel zusätzliche Latenz macht die Failover-Rechenzentrumserfahrung Ist dieser Link korrekt dimensioniert, um mit microbursts umzugehen. Sind meine Händler immer Latenz-Updates von der Marktdatenverteilungsschicht Sie sehen irgendwelche Verzögerungen größer als X Millisekunden. Being in der Lage, diese Fragen einfach und effektiv spart Zeit und Geld beim Laufen des Handelsnetzes. BQM ist ein wesentliches Werkzeug für die Gewinnung von Sichtbarkeit In Marktdaten und Handelsumgebungen Es bietet körnige End-to-End-Latenzmessungen in komplexen Infrastrukturen, die eine umfangreiche Datenübertragung erleben. Effektives Erkennen von Mikrobursts in Sub-Millisekunden-Ebenen und Empfangen von Expertenanalysen zu einem bestimmten Ereignis ist von unschätzbarem Wert für den Handel von Bodenarchitekten Smart Bandbreite Bereitstellung von Empfehlungen, wie z. B. Sizing und What-If-Analyse, bieten eine größere Agilität, um auf volatile Marktbedingungen zu reagieren. Da die Explosion des algorithmischen Handels und der zunehmenden Nachrichtenraten fortgesetzt wird, bietet BQM in Kombination mit seinem QoS-Tool die Möglichkeit, QoS-Richtlinien zu implementieren Schützen kritische handelsanwendungen. Cisco Financial Services Latency Monitoring Solution. Cisco und Trading Metrics haben an Latency Monitoring Lösungen für FIX Auftragsfluss und Marktdatenüberwachung zusammengearbeitet Die Cisco AON Technologie ist die Basis für eine neue Klasse von Netzwerk-Embedded-Produkten und - Lösungen, die intelligente Netzwerke mit der Anwendungsinfrastruktur zusammenführen Entweder Service-orientierte oder traditionelle Architekturen Trading Metrics ist ein führender Anbieter von Analytics-Software für Netzwerk-Infrastruktur und Application Latency Monitoring Zwecke. Die Cisco AON Financial Services Latency Monitoring Solution FSMS korreliert zwei Arten von Veranstaltungen am Punkt der Beobachtung. Netzwerkereignisse korrelierten direkt mit der übereinstimmenden Anwendungsmitteilung. Trade-Order-Flow und passende Marktaktualisierungsereignisse. Um Zeitstempel, die am Punkt der Erfassung im Netzwerk geltend gemacht werden, ermöglicht die Echtzeitanalyse dieser korrelierten Datenströme eine genaue Identifizierung von Engpässen über die Infrastruktur, während ein Handel durchgeführt wird oder Marktdaten vorliegen Verteilt durch die Überwachung und Messung der Latenz in einem frühen Zyklus, können Finanzgesellschaften bessere Entscheidungen darüber treffen, welchen Netzdienst und welcher Vermittler, Markt oder Gegenpartei für die Vermittlung von Handelsaufträgen ausgewählt werden soll. Ebenso ermöglicht dieses Wissen einen effizienteren Zugang zu aktualisierten Marktdatenbeständen, Wirtschaftsnachrichten, etc., die eine wichtige Grundlage für die Einleitung, Abheben oder Verfolgung von Marktchancen ist. Die Komponenten der Lösung sind. AON-Hardware in drei Formfaktoren. AON Netzwerkmodul für Cisco 2600 2800 3700 3800 Router. AON Blade für die Cisco Catalyst 6500 Serie. AON 8340 Gerät. Trading Metrics MA 2 0 Software, die die Überwachungs - und Alarmierungsanwendung zur Verfügung stellt, zeigt Latenzdiagramme auf einem Dashboard an und gibt Warnungen aus, wenn Verlangsamungen auftreten. Abbildung 10 AON-basierte FIX Latency Monitoring. Cisco IP SLA. Cisco IP SLA ist ein eingebettetes Netzwerkmanagement Tool in Cisco IOS, das Routern und Switches ermöglicht, synthetische Verkehrsströme zu erzeugen, die für Latenz, Jitter, Paketverlust und andere Kriterien gemessen werden können. Zwei Schlüsselkonzepte sind die Quelle des generierten Traffics und das Ziel Beide führen eine IP SLA aus Responder, der die Verantwortung hat, den Kontrollverkehr zu verteilen, bevor er vom Ziel für eine Rundreise-Messung angelegt und zurückgegeben wird. Verschiedene Verkehrstypen können in IP-SLA bezogen werden und sind auf unterschiedliche Metriken ausgerichtet und zielen auf unterschiedliche Dienste und Anwendungen ab. Der UDP-Jitter Der Betrieb wird verwendet, um Einweg - und Rundlaufverzögerung und Berichtsvariationen zu messen. Da der Verkehr auf dem Sende - und Zielgerät mit dem bzw Die Umlaufverzögerung ist als Delta zwischen den beiden Zeitstempeln gekennzeichnet. Ein neues Feature wurde in IOS 12 3 14 T, IP SLA Sub Millisecond Reporting eingeführt, mit dem Zeitstempel mit einer Auflösung in Mikrosekunden angezeigt werden können Eine noch nicht verfügbare Granularität Diese neue Funktion hat nun die IP-SLA für Campus-Netzwerke relevant, wo die Netzwerklatenz typischerweise im Bereich von 300-800 Mikrosekunden liegt und die Möglichkeit, Trends und Spikes zu erzählen, kurze Trends auf der Grundlage von Mikrosekunden-Granularitätszählern ist eine Voraussetzung Für Kunden, die in zeitkritischen elektronischen Handelsumgebungen tätig sind. Als Ergebnis wird IP SLA jetzt von einer beträchtlichen Anzahl von Finanzorganisationen betrachtet, da sie alle mit Anforderungen konfrontiert sind. Melden Sie die Baseline-Latenz zu ihren Benutzern. Trend-Baseline-Latenz im Laufe der Zeit. Reagieren Sie schnell auf Traffic-Bursts, die Änderungen in der gemeldeten Latenz verursachen. Sub-Millisekunden Berichterstattung ist für diese Kunden notwendig, da viele Campus und Backbones derzeit liefern unter einer Sekunde der Latenz über mehrere Switch-Hops Elektronische Handelsumgebungen haben in der Regel gearbeitet, um zu beseitigen oder zu minimieren Alle Bereiche der Geräte - und Netzwerklatenz, um eine schnelle Auftragsabwicklung für das Unternehmen zu gewährleisten. Berichterstattung, dass Netzwerkreaktionszeiten knapp eine Millisekunde betragen, reicht nicht mehr aus, dass die Granularität von Latenzmessungen, die über ein Netzwerksegment oder ein Backbone berichtet werden, näher an 300-800 micro liegen muss - seconds with a degree of resolution of 100 seconds. IP SLA recently added support for IP multicast test streams, which can measure market data latency. A typical network topology is shown in Figure 11 with the IP SLA shadow routers, sources, and responders. Figure 11 IP SLA Deploymentputing Servicesputing services cover a wide range of technologies with the goal of elim inating memory and CPU bottlenecks created by the processing of network packets Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing. Transport processing At high speeds, network packet processing can consume a significant amount of server CPU cycles and memory An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity source Intel white paper on I O acceleration. Intermediate buffer copying In a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz for DDR 3200 memory source Intel. Context switching Every time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context This overhead could be reduced if the switch would occur only when the whole application buffer is complete. Figure 12 Sources of Overhead in Data Center Servers. TCP Offload Engine TOE Offloads transport processor cycles to the NIC Moves TCP IP protocol stack buffer copies from system memory to NIC memory. Remote Direct Memory Access RDMA Enables a network adapter to transfer data directly from application to application without involving the operating system Eliminates intermediate and application buffer copies memory bandwidth consumption. Kernel bypass Direct user-level access to hardware Dramatically reduces application context switches. Figure 13 RDMA and Kernel Bypass. InfiniBand is a point-to-point switched fabric bidirectional serial communication link which implements RDMA, among other features Cisco offers an InfiniBand switch, the Server Fabric Switch SFS. Figure 14 Typical SFS Deployment. Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research. Application Virtualization Service. De-coupling the application from the underlying OS and server hardware enables them to run as network services One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates This decoupling enables better load balancing and disaster recovery for business continuance strategies The process of re-allocating computing resources to an a pplication is dynamic Using an application virtualization system like Data Synapse s GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process. There are many business advantages for financial firms who adopt application virtualization. Faster time to market for new products and services. Faster integration of firms following merger and acquisition activity. Increased application availability. Better workload distribution, which creates more head room for processing spikes in trading volume. Operational efficiency and control. Reduction in IT complexity. Currently, application virtualization is not used in the trading front-office One use-case is risk modeling, like Monte Carlo simulations As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service. To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity With solutions from data virtualization software vendors such as Gemstone or Tangosol now Oracle , financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching The net result is that all users have instant access to these data resources across a distributed network. This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing XTP id 500947 Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application An order book is the repository of active orders that is published by the exchange or other market makers A global order book aggregates orders from around the world from markets that operate independently The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state Today s data grids are localized in data centers connected by Metro Area Networks MAN This is mainly because the applications themselves have limits they have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching. Before data virtualization, applications used database clustering for failover and scalability This solution is limited by the performance of the underlying database Failover i s slower because the data is committed to disc With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service. Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability Using TCP requires a separate socket and sliding window on the server for each recipient UDP broadcast requires a separate copy of the stream for each destination subnet Both of these methods exhaust the resources of the servers and the network The server side must transmit and service each of the streams individually, which requires larger and larger server farms On th e network side, the required bandwidth for the application increases in a linear fashion For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps The stream can be delivered by as few as two servers one primary and one backup for redundancy. There are two main phases of market data delivery to the end user In the first phase, the data stream must be brought from the exchange into the brokerage s network Typically the feeds are terminated in a data center on the customer premise The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications The larg e brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc Many of these applications listen to the feeds and then republish their own analytical and derivative information For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players. The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous Tibco RV operates in a publish and subscribe environment Each financial instrument is given a subject name, such as Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information This is called subject-based forwarding or filtering Subject-based f iltering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery The delivery of market data from the exchange to the brokerage is mostly a one-to-many application The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture. Design Issues. Number of Groups Channels to Use. Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets Normally these applications send many small messages as part of their information bus Usually several messages are sent in each packet that are received by many users Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending onl y one message in each packet quickly reaches the point of diminishing returns there is more overhead sent than actual data Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service NQDS The instruments are broken up alphabetically. This approach allows for straight forward network application management, but does not necessarily allow for optimized bandwidth utilization for most users A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value Typically customers bring in all data into a few machines a nd filter the instruments Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data In some situations this may be sufficient. Intermittent Sources. A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3 5 minutes These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM. The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not ha ve any data-driven events in creating forwarding state That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets. In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream The application must efficiently ignore these null data packets to ensure it does not affect performance The sources must only send the burst of packets if they have been silent for more than 3 minutes A good practice is to send the burst if the source is silent for more than a minute Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats. An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the mu lticast groups This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S,G Expiry Timer. Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent The S, G expiry timer is configurable This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback. A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic Unnecessary use of the feedback option can create excessive multicast state in the network If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers. Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats. TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options. PIM Sparse Mode. The standard IP multicast forwarding protoco l used today for market data delivery is PIM Sparse Mode It is supported on all Cisco routers and switches and is well understood PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM These are covered in the next sections. The main components of the PIM-SM implementation are. PIM Sparse Mode v2. Shared Tree spt-threshold infinity. A design option in the brokerage or in the exchange.
No comments:
Post a Comment