Welcome!

Machine Learning Authors: Pat Romanski, Yeshim Deniz, Liz McMillan, Elizabeth White, Corey Roth

News Feed Item

WatchMouse lanciert API-status.com

WatchMouse, ein globaler Branchenführer bei der Leistungsüberwachung von Selbstbedienungsapplikationen und -websites, hat heute den Start von API-status.com bekannt gegeben, einer neuen Spezialwebsite zur Überwachung und Messung von Echtzeitverfügbarkeit und Leistung der öffentlichen APIs von 26 beliebten und stark genutzten Megawebdiensten mit Cloud Computing wie Google Search, Google Maps, Bing, Facebook, Twitter, SalesForce, YouTube, Amazon, eBay, PayPal, Wikipedia und anderen.

API-status.com startet für alle APIs eine Anfrage und überprüft diese auf eine gültige Rückmeldung. Falls die Rückmeldung fehlerhaft ist oder nach mehr als vier Sekunden eintrifft, wird dies als Fehler beziehungsweise Nichtverfügbarkeit verzeichnet. Die prozentuelle Verfügbarkeit oder Uptime beruht auf der Anzahl verzeichneter Fehlermeldungen. Zu den auf API-status.com aufgeführten Einzelheiten gehören eine Statistik über die letzten sieben Tage sowie eine 24-Stunden-Übersicht und eine Leistungsangabe nach Ländern.

„Fast jede Website enthält heutzutage Informationen von externen Quellen wie Karten oder Feeds aus sozialen Medien. Es beeinträchtigt Millionen von Websites auf der ganzen Welt, wenn diese Dienste und Systeme zu langsam oder nicht verfügbar sind, und dies kann zu einem weltweiten Dominoeffekt mit Unterbrechungen und Verlangsamungen führen“, erklärt Mark Pors, CTO und Mitbegründer von WatchMouse. „Die Begrenzung der Antwortzeit auf vier Sekunden mag streng erscheinen, aber es handelt sich dabei in Wirklichkeit um eine lange Zeitspanne, besonders wenn die (Mashup-)Sites mehrere API-Aufrufe durchführen müssen, um dem Besucher eine Seite vollständig anzuzeigen.“

Gemäß einem neuen Bericht von Forrester Research und Akamai gelten zwei Sekunden als Akzeptanzschwelle bei Antwortzeiten in Bezug auf die Verfügbarkeit von E-Commerce-Webseiten.

Monatsbericht und Methodik

WatchMouse überwachte zwischen dem 16. Dezember 2009 und dem 16. Januar 2010 die Verfügbarkeit von 26 Webdiensten mit APIs/Cloud-Umgebungen. Die Ergebnisse zeigen, dass Yammer mit 96,09 Prozent Uptime bei den APIs die tiefste Verfügbarkeit aufwies, wogegen Amazon, Google Maps, Google Search, last.fm und Yahoo Maps mit 100 Prozent Uptime die höchste Verfügbarkeit verzeichneten. In Übereinstimmung mit Branchenstandards gilt eine Verfügbarkeit von mindestens 99,9 Prozent als „gut“, während alles unter 99 Prozent Uptime bei Websites als „schlecht“ eingestuft wird. Zur Methodik für die Überprüfung der Websites gehört ein simpler API-Aufruf mit Überprüfung auf eine gültige Rückmeldung. Dies bedeutet normalerweise bei den meisten APIs einen Authentisierungsschritt mit Login und anschließender Suche oder Auflistung sowie eine Überprüfung des erwarteten Ergebnisses. Dieses erwartete Ergebnis kann sofort als Fehlermeldung verzeichnet werden – was auch geschieht, wenn das erwartete Ergebnis später als vier Sekunden nach der entsprechenden Anfrage eintrifft. Diese Fehlermeldungen werden für jede Website zur Berechnung der prozentuellen Verfügbarkeit oder Uptime verwendet. Jede Website wird mit dem WatchMouse-Tool Public Status Pages in Echtzeit getestet. Das Tool, das auf der Amazon-Plattform gehostet wird, kann zur Messung und Berichterstattung der Verfügbarkeit von jeder öffentlich zugänglichen Website verwendet werden. Es wird von Unternehmen eingesetzt, um ihre Kunden sowie die Öffentlichkeit über den Status ihrer Dienstleistungen zu informieren.

Klicken Sie hier für den Schlussbericht zur Uptime von allen 26 Webdiensten oder gehen Sie auf www.API-status.com für Statusberichte und statistische Angaben in Echtzeit zu allen Websites.

Über APIs

Eine Programmierschnittstelle (API, von engl. application programming interface) ist eine Reihe von Datenstrukturen, Protokollen, Hilfsprogrammen und Tools für den Zugang zu einer webbasierten Softwareapplikation. Die Veröffentlichung von APIs gibt Webgemeinschaften die Möglichkeit, eine offene Architektur für die gemeinsame Nutzung von Inhalten und Daten zwischen mehreren Gemeinschaften und Anwendungen zu errichten. Inhalte, die an einem Ort erstellt werden, können so über verschiedene Orte im Web abgerufen, aufgeschaltet und/oder aktualisiert werden.

Über WatchMouse

Das 2002 gegründete Unternehmen WatchMouse ist ein globaler Branchenführer bei der Leistungsüberwachung von Selbstbedienungsapplikationen und -websites. WatchMouse testet die Eigenschaften und die Verfügbarkeit von Websites, Diensten und Anwendungen über eine Infrastruktur mit 42 Remote-Monitoring-Stationen in 26 Ländern rund um die Welt. Diese fortschrittliche Fernüberwachung hilft Websites bei der Beseitigung von Downtime, indem Probleme identifiziert und rasch behoben werden können. Bei dieser externen Überprüfung aus Anwenderperspektive können Sie sicher sein, dass Ihre Website garantiert gründlich getestet wurde. Die webbasierten Produkte von WatchMouse können leicht eingesetzt werden und bieten zahlreiche Funktionen wie umfassende Reporting-Tools, Ursachenanalyse oder automatisierte E-Mail- und SMS-Benachrichtigungen. WatchMouse unterstützt Philips, ING, VeriSign und andere globale Spitzenunternehmen, die zur unabhängigen Leistungsbestätigung der eigenen Websites sowie derjenigen ihrer Zulieferer auf WatchMouse zurückgreifen. WatchMouse ist ein Privatunternehmen mit Hauptsitz in der niederländischen Stadt Utrecht. Mehr erfahren Sie unter http://www.watchmouse.com.

Fotos/Multimediagalerie: http://www.businesswire.com/cgi-bin/mmg.cgi?eid=6145246&lang=de

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

More Stories By Business Wire

Copyright © 2009 Business Wire. All rights reserved. Republication or redistribution of Business Wire content is expressly prohibited without the prior written consent of Business Wire. Business Wire shall not be liable for any errors or delays in the content, or for any actions taken in reliance thereon.

CloudEXPO Stories
When applications are hosted on servers, they produce immense quantities of logging data. Quality engineers should verify that apps are producing log data that is existent, correct, consumable, and complete. Otherwise, apps in production are not easily monitored, have issues that are difficult to detect, and cannot be corrected quickly. Tom Chavez presents the four steps that quality engineers should include in every test plan for apps that produce log output or other machine data. Learn the steps so your team's apps not only function but also can be monitored and understood from their machine data when running in production.
The deluge of IoT sensor data collected from connected devices and the powerful AI required to make that data actionable are giving rise to a hybrid ecosystem in which cloud, on-prem and edge processes become interweaved. Attendees will learn how emerging composable infrastructure solutions deliver the adaptive architecture needed to manage this new data reality. Machine learning algorithms can better anticipate data storms and automate resources to support surges, including fully scalable GPU-centric compute for the most data-intensive applications. Hyperconverged systems already in place can be revitalized with vendor-agnostic, PCIe-deployed, disaggregated approach to composable, maximizing the value of previous investments.
A valuable conference experience generates new contacts, sales leads, potential strategic partners and potential investors; helps gather competitive intelligence and even provides inspiration for new products and services. Conference Guru works with conference organizers to pass great deals to great conferences, helping you discover new conferences and increase your return on investment.
Poor data quality and analytics drive down business value. In fact, Gartner estimated that the average financial impact of poor data quality on organizations is $9.7 million per year. But bad data is much more than a cost center. By eroding trust in information, analytics and the business decisions based on these, it is a serious impediment to digital transformation.
Containers and Kubernetes allow for code portability across on-premise VMs, bare metal, or multiple cloud provider environments. Yet, despite this portability promise, developers may include configuration and application definitions that constrain or even eliminate application portability. In this session we'll describe best practices for "configuration as code" in a Kubernetes environment. We will demonstrate how a properly constructed containerized app can be deployed to both Amazon and Azure using the Kublr platform, and how Kubernetes objects, such as persistent volumes, ingress rules, and services, can be used to abstract from the infrastructure.