<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Sicherheit - contentmanager.de</title>
	<atom:link href="https://www.contentmanager.de/tag/sicherheit/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.contentmanager.de/tag/sicherheit/</link>
	<description>Digital Marketing &#38; eCommerce. Seit 1999.</description>
	<lastBuildDate>Tue, 20 May 2025 11:49:24 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.8</generator>

<image>
	<url>https://www.contentmanager.de/wp-content/uploads/2016/05/cropped-rechteck512-50x50.jpg</url>
	<title>Sicherheit - contentmanager.de</title>
	<link>https://www.contentmanager.de/tag/sicherheit/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>OpenAI Safety Hub: Wie Open Source die Sicherheit von KI revolutionieren soll</title>
		<link>https://www.contentmanager.de/kuenstliche-intelligenz/openai-safety-hub-sicherheit-von-ki/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=openai-safety-hub-sicherheit-von-ki</link>
					<comments>https://www.contentmanager.de/kuenstliche-intelligenz/openai-safety-hub-sicherheit-von-ki/#respond</comments>
		
		<dc:creator><![CDATA[contentmanager.de Redaktion]]></dc:creator>
		<pubDate>Tue, 20 May 2025 11:49:24 +0000</pubDate>
				<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[Slider]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Sicherheit]]></category>
		<guid isPermaLink="false">https://www.contentmanager.de/?p=37097</guid>

					<description><![CDATA[<p>Künstliche Intelligenz hat in den letzten Jahren beeindruckende Fortschritte gemacht – von automatisierten Textsystemen bis hin zu multimodalen Modellen, die Bilder, Sprache und Daten analysieren. Doch je leistungsfähiger diese Systeme werden, desto größer wird auch ihr Gefahrenpotenzial. Missbrauch, Fehlinformationen, unkontrollierbares Verhalten oder sogar ungewollte Auswirkungen stellen Entwickler:innen und Unternehmen vor ernsthafte Herausforderungen. Mit dem OpenAI ...</p>
<p>Der Beitrag <a href="https://www.contentmanager.de/kuenstliche-intelligenz/openai-safety-hub-sicherheit-von-ki/">OpenAI Safety Hub: Wie Open Source die Sicherheit von KI revolutionieren soll</a> erschien zuerst auf <a href="https://www.contentmanager.de">contentmanager.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="" data-start="284" data-end="743"><strong>Künstliche Intelligenz hat in den letzten Jahren beeindruckende Fortschritte gemacht – von automatisierten Textsystemen bis hin zu multimodalen Modellen, die Bilder, Sprache und Daten analysieren. Doch je leistungsfähiger diese Systeme werden, desto größer wird auch ihr Gefahrenpotenzial. Missbrauch, Fehlinformationen, unkontrollierbares Verhalten oder sogar ungewollte Auswirkungen stellen Entwickler:innen und Unternehmen vor ernsthafte Herausforderungen. </strong><strong>Mit dem OpenAI Safety Hub geht das Unternehmen nun einen neuen Weg: Statt Risiken im Verborgenen zu analysieren, wird die Sicherheit von KI-Modellen in die Hände einer breiten Community gelegt – offen, kollaborativ und transparent.</strong></p>
<h2 data-start="978" data-end="1016"><strong data-start="982" data-end="1016">Was ist der OpenAI Safety Hub?</strong></h2>
<p class="" data-start="1018" data-end="1377">Der <a href="https://openai.com/safety/evaluations-hub/" target="_blank" rel="nofollow noopener">OpenAI Safety Hub</a> ist eine offene Plattform, die es Forscher:innen, Entwickler:innen und Organisationen ermöglicht, KI-Modelle systematisch auf Risiken zu testen. Ziel ist es, das Verhalten von KI in sensiblen Bereichen – etwa bei Fehlinformationen, gefährlichem Output oder Missbrauchsmöglichkeiten – besser zu verstehen und objektiv zu bewerten. Im Zentrum des Hubs steht die Idee der offenen Sicherheits-Evaluierung: Jeder kann mitmachen, sei es durch das Einreichen eigener Testszenarien, die Analyse bestehender Modelle oder den Austausch über Ergebnisse. Die zugrundeliegenden Tools und Evaluierungsansätze sind Open Source und sollen so eine breite, gemeinsame Wissensbasis schaffen.</p>
<h2 data-start="1379" data-end="1729"><strong data-start="1892" data-end="1942">Wie funktioniert der Safety Hub in der Praxis?</strong></h2>
<p class="" data-start="1944" data-end="2286">Der Hub basiert auf einer Sammlung offener Testmethoden, Daten, Benchmarks und Code-Komponenten. Nutzer:innen können bestehende Evaluierungen ausführen oder neue erstellen – zum Beispiel um zu testen, ob ein Sprachmodell schädliche Anweisungen akzeptiert, voreingenommene Aussagen produziert oder sicherheitskritische Themen falsch behandelt.</p>
<p class="" data-start="2288" data-end="2582"><a href="https://www.contentmanager.de/nachrichten/openai-investiert-in-die-forschung-zur-ki-moral/" target="_blank" rel="noopener">OpenAI</a> selbst beschreibt den Hub als „Experimentierplattform“, die helfen soll, Risiken systematisch zu erkennen und vergleichbar zu machen. Auch das Zusammenspiel mit bestehenden Forschungsinitiativen wird gefördert – etwa durch die Möglichkeit, eigene Tests als Pull Request beizusteuern.</p>
<p class="" data-start="2584" data-end="2789">Diese Offenheit ist bewusst gewählt: Der Safety Hub soll nicht nur die Arbeit einzelner Teams erleichtern, sondern kollektives Lernen ermöglichen – über Organisationen, Sprachen und Fachgebiete hinweg.</p>
<h2 data-start="2796" data-end="2845"><strong data-start="2800" data-end="2845">Warum offene Evaluierung entscheidend ist</strong></h2>
<p class="" data-start="2847" data-end="3139">Lange Zeit galt das Thema KI-Sicherheit als internes Anliegen großer Tech-Unternehmen. Doch geschlossene Systeme schaffen geschlossene Perspektiven. Und sie verhindern genau das, was im Umgang mit Hochrisiko-Technologien entscheidend ist: Transparenz, Vergleichbarkeit und externe Kontrolle.</p>
<p class="" data-start="3141" data-end="3491">Mit dem OpenAI Safety Hub wird ein neuer Weg eingeschlagen. Statt proprietärer Blackbox-Tests ermöglicht das Projekt eine breitere Beteiligung und offene <a href="https://www.cyberriskmanager.de/wie-viel-regulierung-braucht-it-sicherheit" target="_blank" rel="noopener">Standards für Sicherheitsfragen</a>. Gerade im <a href="https://www.contentmanager.de/nachrichten/b2b-trends-2025/" target="_blank" rel="noopener">B2B-Umfeld</a>, wo regulatorischer Druck und Compliance-Anforderungen steigen, sind solche Initiativen essenziell, um Vertrauen in KI-Systeme aufzubauen.</p>
<h2 data-start="3498" data-end="3549"><strong data-start="3502" data-end="3549">Für wen ist der OpenAI Safety Hub relevant?</strong></h2>
<p class="" data-start="3551" data-end="3788">Der Hub richtet sich nicht nur an Forschungsteams oder KI-Labs. Auch für Unternehmen mit eigenen KI-Anwendungen, Start-ups mit Sprachmodellen oder Agenturen, die KI-Dienste nutzen, ist der Safety Hub eine wertvolle Ressource.</p>
<p class="" data-start="3790" data-end="3895">Insbesondere Digitalverantwortliche, IT-Sicherheitsbeauftragte oder Product Owner erhalten durch den Hub:</p>
<ul data-start="3896" data-end="4083">
<li class="" data-start="3896" data-end="3942">
<p class="" data-start="3898" data-end="3942">Zugang zu bewährten Evaluierungsmethoden</p>
</li>
<li class="" data-start="3943" data-end="3998">
<p class="" data-start="3945" data-end="3998">Einblicke in bekannte Schwachstellen von Modellen</p>
</li>
<li class="" data-start="3999" data-end="4083">
<p class="" data-start="4001" data-end="4083">die Möglichkeit, eigene Modelle systematisch zu testen oder bewerten zu lassen</p>
</li>
</ul>
<p class="" data-start="4085" data-end="4252">So wird aus einem Forschungsprojekt ein praktisches Werkzeug für alle, die mit KI verantwortungsvoll arbeiten wollen. Und das auch ohne eigene Sicherheitsteams aufbauen zu müssen.</p>
<h2 data-start="4505" data-end="4570"><strong data-start="4509" data-end="4570">Herausforderungen und Kritik: Wo der Hub an Grenzen stößt</strong></h2>
<p class="" data-start="4572" data-end="4923">Natürlich ist der OpenAI Safety Hub kein Allheilmittel. Er gibt keine vollständige Garantie für sichere KI und lässt so viele Fragen offen: Wer entscheidet, welche Risiken priorisiert werden? Wie wird Missbrauch verhindert, wenn Evaluierungen öffentlich zugänglich sind? Und wie verlässlich sind Tests, wenn Modelle laufend aktualisiert werden?</p>
<p class="" data-start="4925" data-end="5177">Doch trotz dieser Herausforderungen ist der Hub ein wichtiger erster Schritt. Denn er verlagert die Debatte um KI-Sicherheit dorthin, wo sie hingehört: in die Öffentlichkeit, in die Fachcommunity und in die Unternehmen, die KI produktiv nutzen.</p>
<h2 data-start="5184" data-end="5235"><strong data-start="5188" data-end="5235">Fazit: Open Source als Hebel für sichere KI</strong></h2>
<p class="" data-start="5237" data-end="5527">Der OpenAI Safety Hub ist mehr als ein technisches Werkzeug – er ist ein politisches und kulturelles Signal. OpenAI zeigt mit dem Hub, dass Sicherheit keine proprietäre Aufgabe ist, sondern eine gemeinsame Verantwortung. Für Unternehmen, die KI einsetzen oder entwickeln, bietet der Hub eine niedrigschwellige Möglichkeit, sich aktiv mit den Risiken ihrer Systeme auseinanderzusetzen – ohne Spezialwissen, aber mit echtem Mehrwert. Open Source, Kollaboration und Transparenz sind damit nicht nur Werte, sondern konkrete Werkzeuge für die Gestaltung einer sicheren KI-Zukunft.</p>
<p>Der Beitrag <a href="https://www.contentmanager.de/kuenstliche-intelligenz/openai-safety-hub-sicherheit-von-ki/">OpenAI Safety Hub: Wie Open Source die Sicherheit von KI revolutionieren soll</a> erschien zuerst auf <a href="https://www.contentmanager.de">contentmanager.de</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://www.contentmanager.de/kuenstliche-intelligenz/openai-safety-hub-sicherheit-von-ki/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Unzählige JavaScript-Funktionen machen Browser unsicher</title>
		<link>https://www.contentmanager.de/nachrichten/studien-und-prognosen/unzaehlige-javascript-funktionen-machen-browser-unsicher/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=unzaehlige-javascript-funktionen-machen-browser-unsicher</link>
					<comments>https://www.contentmanager.de/nachrichten/studien-und-prognosen/unzaehlige-javascript-funktionen-machen-browser-unsicher/#respond</comments>
		
		<dc:creator><![CDATA[contentmanager.de Redaktion]]></dc:creator>
		<pubDate>Fri, 27 May 2016 10:02:44 +0000</pubDate>
				<category><![CDATA[Studien und Prognosen]]></category>
		<category><![CDATA[Browser]]></category>
		<category><![CDATA[JavaScript]]></category>
		<category><![CDATA[Sicherheit]]></category>
		<guid isPermaLink="false">http://www.contentmanager.de/?p=8630</guid>

					<description><![CDATA[<p>Web-Browser haben zwar viele Features, doch kaum einer benötigt diese. Das zeigt eine Studie der University of Illinois in Chicago (UIC). So werden mehr als 50 Prozent aller JavaScript-Funktionen von den 10.000 beliebtesten Webseiten gar nicht genutzt. Manch anderes Feature ist eher sinnlos, weil es ohnehin jeder brauchbare Werbe-Blocker aushebelt. All den ungenutzen und ungeliebten ...</p>
<p>Der Beitrag <a href="https://www.contentmanager.de/nachrichten/studien-und-prognosen/unzaehlige-javascript-funktionen-machen-browser-unsicher/">Unzählige JavaScript-Funktionen machen Browser unsicher</a> erschien zuerst auf <a href="https://www.contentmanager.de">contentmanager.de</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Web-Browser haben zwar viele Features, doch kaum einer benötigt diese. Das zeigt eine Studie der University of Illinois in Chicago (UIC). So werden mehr als 50 Prozent aller JavaScript-Funktionen von den 10.000 beliebtesten Webseiten gar nicht genutzt. Manch anderes Feature ist eher sinnlos, weil es ohnehin jeder brauchbare Werbe-Blocker aushebelt. All den ungenutzen und ungeliebten Funktionen ist gemein, dass sie Browser aufblähen &#8211; und viele sind zudem irgendwie unnötige Sicherheitslücken.</strong></p>
<p>%CAD2%</p>
<h3>Komplexität für die Katz</h3>
<p>Aktuelle Browser sind sehr komplex, unter anderem weil sie für Web-Entwickler über 1.000 JavaScript-Funktionen bereitstellen. Doch mehr als die Hälfte davon sind effektiv sinnlos, weil sie in der Praxis niemand nutzt. Das hat eine Analyse der laut Alexa-Ranking 10.000 beliebtesten Webseiten ergeben. Dazu kommt dem UIC-Team zufolge, dass rund zehn Prozent der Funktionen ohnehin fast immer in irgendeiner Form geblockt werden. Ist ein Werbe-Blocker aktiv, &#8222;werden über 83 Prozent der verfügbaren Features von weniger als einem Prozent der 10.000 beliebtesten Webseiten ausgeführt&#8220;.</p>
<p>Der &#8222;Encodings&#8220;-Standard, mit dem JavaScript Text zwischen verschiedenen Codierungs-Standards konvertieren kann, beispielsweise wird von genau einer Top-10.000-Webseite genutzt. Bei Entwicklern relativ beliebt sind hingegen iFrames, beispielsweise für Pop-up-Werbung. Eben das ist ein wesentlicher Grund, weshalb iFrames den UIC-Informatikern zufolge in 77 Prozent aller Fälle blockiert werden. Dazu kommt schon seit Jahren der fade Beigeschmack des Sicherheitsrisikos. Denn Hacker setzen oft auf eingeschleuste iFrames, um Malware über legitime Webseiten zu verbreiten.</p>
<h3>Lücken und fraglicher Wert</h3>
<p>Die Forscher zeigen auf, dass mit Blick auf die Sicherheit manche Features fragwürdig erscheinen. Sie verweisen auf die Web Audio API, die von weniger als zwei Prozent der beliebtesten Seiten genutzt wird. Doch gab es in den vergangenen drei Jahren mindestens zehn gemeldete Sicherheitslücken nach CVE-Standard <a href="http://cve.mitre.org/" target="_blank">http://cve.mitre.org</a> für den als Referenz herangezogenen Browser Firefox. Auch Skalierbare Vektorgrafiken (SVGs) sind problematisch. Zwar nutzen diese mittlerweile rund 15,5 Prozent der Seiten, doch werden die Grafiken zu 87 Prozent geblockt. Indes gab es in drei Jahren sogar mindestens 14 CVEs für Firefox.</p>
<p>Zur Studie &#8220; Browser Feature Usage on the Modern Web&#8220;: <a href="http://arxiv.org/abs/1605.06467">http://arxiv.org/abs/1605.06467</a></p>
<p>(pte)</p>
<p>Der Beitrag <a href="https://www.contentmanager.de/nachrichten/studien-und-prognosen/unzaehlige-javascript-funktionen-machen-browser-unsicher/">Unzählige JavaScript-Funktionen machen Browser unsicher</a> erschien zuerst auf <a href="https://www.contentmanager.de">contentmanager.de</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://www.contentmanager.de/nachrichten/studien-und-prognosen/unzaehlige-javascript-funktionen-machen-browser-unsicher/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
