G-Data

G-Data
G DATA Software
Logo
Unternehmensform AG
Gründung 1985
Unternehmenssitz Bochum
Unternehmensleitung
  • Fridolin Rummel
  • Dirk Hochstrate
  • Frank Heisler
Mitarbeiter 79
Branche Softwarehersteller
Website

www.gdata.de

Die G DATA Software AG ist ein deutsches Softwarehaus mit Schwerpunkt auf IT-Sicherheitslösungen. Das Unternehmen wurde 1985 gegründet und hat seinen Hauptsitz in Bochum. Heute beschäftigt G DATA 79 Mitarbeiter.

Zu den bekanntesten Produkten zählen die Programme:

  • G DATA AntiVirus (ehemals AntiVirenKit)
  • G DATA InternetSecurity
  • G DATA TotalCare (seit 2007)
  • G DATA NotebookSecurity (seit 2008)
  • G DATA DaViDeo, Brenn- und Kopierprogramm (wird nicht mehr weiterentwickelt)

Die Software wird unter anderem in Deutschland, Italien, Frankreich, Belgien, Spanien, Großbritannien, den Niederlanden, den USA und Japan vertrieben.

G DATA Antivirus

Besonderes Merkmal ist die sogenannte „DoubleScan“-Engine welche mit Hilfe von zwei unabhängigen Virenscan-Engines den Rechner schützen soll. Dadurch erreicht das Programm die höchste Virenerkennung aller Anbieter [1]. G DATA AntiVirus unterstützt in der aktuellen Version 2010 die Windows-Betriebssysteme XP (ab Servicepack 2) und Vista, jeweils in der 32- und 64-Bit-Version.

Unternehmensgeschichte

  • 1985: Gründung durch Kai Figge und Frank Kühn. Das Unternehmen entwickelt bis 1987 Software für den Atari ST; Entwicklung der ersten Antiviren-Software für den Atari ST. Wahrscheinlich erster Hersteller weltweit.
  • 1990: Entwicklung von Software für Standard-PCs; Umsetzung des AntiVirenKit für MS-DOS
  • 1993: GeoRoute, erster Routenplaner mit intelligenter Karte
  • 1997: Logox, Sprachausgabe für Windows [2]
  • 2000: Umwandlung zur Aktiengesellschaft
  • 2002: Etablierung von G DATA Security und Einführung der DoubleScan-Technologie
  • 2003: Markteintritt in Japan
  • 2004: Produktvorstellung „InternetSecurity“ auf der CeBIT
  • 2005: Einführung der OutbreakShield-Technologie (Inhaltsunabhängier Schutz gegen Spam und unbekannte Viren via E-Mail)
  • 2006: Ausbau der internationalen Expansion: Markteintritt in verschiedenen Ländern
  • 2007: Programm InternetSecurity gewinnt zweites Mal bei Stiftung Warentest; Eröffnung der japanischen Niederlassung in Tokio
  • 2008: Markteintritt in Brasilien und Mexiko

Einzelnachweise

  1. AV-Test release latest results (08. Dezember 2008)
  2. c't 15/1997, S. 62

Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Data warehouse — Overview In computing, a data warehouse (DW) is a database used for reporting and analysis. The data stored in the warehouse is uploaded from the operational systems. The data may pass through an operational data store for additional operations… …   Wikipedia

  • Data remanence — is the residual representation of data that remains even after attempts have been made to remove or erase the data. This residue may result from data being left intact by a nominal file deletion operation, by reformatting of storage media that… …   Wikipedia

  • Data quality — Data are of high quality if they are fit for their intended uses in operations, decision making and planning (J. M. Juran). Alternatively, the data are deemed of high quality if they correctly represent the real world construct to which they… …   Wikipedia

  • Data governance — is an emerging discipline with an evolving definition. The discipline embodies a convergence of data quality, data management, data policies, business process management, and risk management surrounding the handling of data in an organization.… …   Wikipedia

  • Data sharing — is the practice of making data used for scholarly research available to other investigators. Replication has a long history in science. The motto of The Royal Society is Nullius in verba , translated Take no man s word for it. [1] Many funding… …   Wikipedia

  • Data Vault Modeling — is a database modeling method that is designed to provide historical storage of data coming in from multiple operational systems. It is also a method of looking at historical data that, apart from the modeling aspect, deals with issues such as… …   Wikipedia

  • Data Intensive Computing — is a class of parallel computing applications which use a data parallel approach to processing large volumes of data typically terabytes or petabytes in size and typically referred to as Big Data. Computing applications which devote most of their …   Wikipedia

  • Data driven journalism — is a journalistic process based on analyzing and filtering large data sets for the purpose of creating a new story. Data driven journalism deals with open data that is freely available online and analyzed with open source tools.[1] Data driven… …   Wikipedia

  • Data.gov.uk — is a UK Government project to open up almost all non personal data acquired for official purposes for free re use. Sir Tim Berners Lee and Professor Nigel Shadbolt are the two key figures behind the project.[1] Homepage of data.gov.uk …   Wikipedia

  • Data integrity — in its broadest meaning refers to the trustworthiness of system resources over their entire life cycle. In more analytic terms, it is the representational faithfulness of information to the true state of the object that the information represents …   Wikipedia

  • Data (Star Trek) — Data Data on the bridge of the Enterprise D Species Android Home planet Omicron Theta Affiliation United Federation of Planets Starfleet …   Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”