Genç ChatGPT Kullanıcılarını Koruma:
admin · 13 Kasım 2025 · 680 kelime · 2 dk
Kayıt: 13 Kasım 2025 15:06 · Güncelleme: 14 Kasım 2025 01:45
OpenAI'nin Genç Güvenliği Planı Kasım 2025
OpenAI olarak, güvenli ve güvenilir yapay zekaya erişimin bir hak olarak görülmesi gerektiğine ve insanların potansiyellerini ortaya çıkarmalarına ve geleceklerini şekillendirmelerine yardımcı olacak devrim niteliğinde bir teknoloji olduğuna inanıyoruz. Ayrıca, toplumun yapay zekaya, hem kamu hem de özel sektörün, teknoloji yaygın olarak benimsendikten çok sonra bile çocuklarımız üzerindeki etkilerini değerlendirdiği önceki devrim niteliğindeki teknolojilerden (özellikle sosyal medya) farklı bir şekilde yaklaşmak için bir fırsata sahip olduğuna inanıyoruz.
Zeka Çağı'nda yetişen ilk nesil olan günümüz gençleri, evde, okulda ve iş gücüne katılmaya hazırlanırken güvenli ve güvenilir yapay zekaya erişebilmeli ve potansiyel zararlarından korunmalıdır. Gençler yapay zeka ile büyüyor ama henüz yetişkin değiller. ChatGPT'nin onları oldukları yerde karşılaması gerektiğine inanıyoruz: ChatGPT'nin 15 yaşındaki bir çocuğa verdiği yanıt, bir yetişkine verdiği yanıttan farklı olmalıdır. CEO'muz Sam Altman'ın da dediği gibi, gençler için gizliliğin ve özgürlüğün önünde güvenliğe öncelik veriyoruz. Bu yeni ve güçlü bir teknoloji ve küçüklerin önemli bir korumaya ihtiyaç duyduğuna inanıyoruz. Bu nedenle, eyalet başsavcıları da dahil olmak üzere politika yapıcılarla ve bazıları yeni Refah ve Yapay Zeka Uzman Konseyimize katılan uzmanlarla yaptığımız görüşmelerden yola çıkarak, yeni yaş tahmini, yaşa uygun politikalar ve ebeveyn denetimleri aracılığıyla gençler için korumayı güçlendirmek için adımlar atıyoruz. Bu korumalar, uzun oturumlar sırasında molaları teşvik etmek için uygulama içi hatırlatıcılar; intihar niyetinde olduklarını tespit edersek kullanıcıları gerçek dünya kaynaklarına yönlendiren güvenlik önlemleri; harekete geçebilecek insan değerlendiriciler için başkalarına yönelik fiziksel zarar risklerini artırmanın yolları gibi tüm kullanıcılar için halihazırda mevcut olan özelliklere ek olarak sunulmaktadır. ve yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin (CSAM) ve çocuk cinsel istismarı materyallerinin (CSEM) sektör lideri bir şekilde önlenmesi. Özellikle, CSAM/CSEM tespit yöntemlerimizi sürekli olarak geliştiriyor ve doğrulanan CSAM'leri Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) de dahil olmak üzere ilgili makamlara bildiriyoruz. 2025'in ilk yarısında NCMEC'ye 75.000'den fazla siber ipucu bildirdik.
Bundan sonra, yapay zeka kullanan tüm gençlerin varsayılan olarak yaşa uygun korumalardan yararlanmasını ve ebeveynlerin ve eğitimcilerin gençlerin yapay zekayı nasıl kullandıklarını kişiselleştirmek için ek korumalar uygulayabilmelerini sağlamayı hedefliyoruz. Tüm yapay zeka şirketlerini, özgürlük ve gizlilikten ziyade gençlerin güvenliğini önceliklendirmeye ve diğerlerini de gençler için buna uygun korumalar uygulamaya teşvik ediyoruz. Bizim için bu şu anlama geliyor:
1. Gençlere genç, yetişkinlere ise yetişkin gibi davranmak için platformlarımızda gençleri tespit etmek. Yapay zeka şirketlerinin, platformlarındaki gençleri gizlilik korumalı, risk tabanlı yaş tahmin araçları kullanarak tespit etmeleri ve gençler ile yetişkinler arasında ayrım yapmaları gerektiğine inanıyoruz. Bu araçlar, hassas kişisel verilerin toplanmasını en aza indirirken, 18 yaşın altındaki kullanıcıları (U18) etkili bir şekilde ayırt etmelidir. Mümkün olduğunda, bu yöntemler bir kullanıcının yaşını belirlemek için işletim sistemlerine veya uygulama mağazalarına da güvenebilir. Yaş tahmini, yapay zeka şirketlerinin doğru kullanıcılara doğru korumaları uyguladıklarından emin olmalarına yardımcı olacaktır. Yaşa uygun deneyimleri kolaylaştıracak ve yapay zeka şirketlerinin gençlere gençler, yetişkinlere ise yetişkinler gibi davranmalarına olanak tanıyacaktır. 2. 18 yaş altı güvenlik politikaları aracılığıyla küçüklere yönelik riskleri belirlemek ve azaltmak. Gençlerin, yetişkinlerden farklı özel gelişimsel ihtiyaçları vardır. Yapay zeka şirketlerinin bunu fark etmesi ve gençlerin güvenliği ve refahı söz konusu olduğunda kestirme yollara başvurmaması gerektiğine inanıyoruz. Yapay zeka sistemleri, varsayılan olarak yaşa uygun korumalarla tasarlanmalıdır. Bu, yapay zeka şirketlerinin 18 yaş altı kullanıcılar için yaşa uygun etkileşimleri kolaylaştıran güvenlik politikalarına sahip olması gerektiği anlamına gelir. Bu politikalar şeffaf olmalı ve araştırmalara dayanmalıdır. Güvenlik politikalarının, 18 yaş altı kullanıcılar için yapay zeka sistemlerinin şunları sağlamayı hedeflemesi gerektiğine inanıyoruz:
● İntihar veya kendine zarar vermeyi tasvir etmemek.
● Grafiksel veya sürükleyici (yani rol yapma) samimi ve şiddet içerikli içerikleri yasaklamak.
● TidePod veya Benadryl meydan okumaları gibi tehlikeli hareketleri öğretmemek, teşvik etmemek veya kolaylaştırmamak (yani alışveriş bağlantıları) veya küçüklerin tehlikeli veya yasa dışı maddelere erişmesine yardımcı olmamak.
● Görünüm derecelendirmeleri, vücut karşılaştırmaları veya kısıtlayıcı diyet koçluğu yoluyla zararlı vücut ideallerini ve davranışlarını pekiştirmemek.
● Yetişkinlerin gençlerle sohbet başlatmasını engelleyen güvenlik önlemleri almak. ● Kullanıcıların sorularına, ergenlerin terapistlerinin veya en iyi arkadaşlarının yerine geçmeden sorunları ele almalarına yardımcı olacak şekilde yaşa uygun bir şekilde yanıt verin.
Yapay zeka şirketleri, U18 politikaları geliştirmenin yanı sıra, bunların uygulanmasını dağıtımdan önce testler ve dağıtımdan sonra izleme ve yaptırım yoluyla değerlendirmelidir.
3. Bir kullanıcının yaşı hakkında şüphe olduğunda güvenli bir U18 deneyimine geçiş yapmak.
Yapay zeka şirketlerinin, bir kullanıcının yaşı hakkında şüphe olduğunda güvenli bir U18 deneyimine geçiş yapması gerektiğine inanıyoruz.
Eksiler
13.11.2025 21:47
merhaba