Çocuk istismarı içerik tespiti (CSAM)
Yüklenen tüm görsel ve videolar, dünya çapında doğrulanmış hash veritabanlarına ve görüntü-tabanlı sınıflandırıcılara karşı taranır. Eşleşme anında içerik bloklanır, yetkili merciler bilgilendirilir.
Mio'nun temel sözü açık: Sana ne göstereceğine karar veren, dikkatini sömüren, bağımlılık yapan bir 'For You' algoritması yok. Akışın sıralamasında AI yer almaz.
Ama yapay zeka bunun çok ötesinde bir araç. Aynı teknoloji, dikkat sömürmek yerine seni taciz, dolandırıcılık, çocuk istismarı içerikleri ve zararlı materyalden korumak için de kullanılabilir. Biz bunu kullanıyoruz — ve hangi alanlarda kullandığımızı, hangi alanlarda asla kullanmayacağımızı bu sayfada şeffafça anlatıyoruz.
Tamamı güvenlik, erişilebilirlik veya kullanıcı yararına yönelik. Hiçbiri akış sıralaması veya reklam profilleme amacıyla kullanılmaz.
Yüklenen tüm görsel ve videolar, dünya çapında doğrulanmış hash veritabanlarına ve görüntü-tabanlı sınıflandırıcılara karşı taranır. Eşleşme anında içerik bloklanır, yetkili merciler bilgilendirilir.
Görseller, video kareleri ve profil fotoğrafları gerçek zamanlı olarak NSFW sınıflandırıcısından geçer. Hassas içerikler bulanıklaştırılır veya tamamen engellenir; yaş kapısının arkasında kalır.
Kayıt akışı, mesajlaşma desenleri ve davranış sinyalleri (cihaz parmak izi, IP havuzu, kayıt hızı) ile bot/spam hesapları belirlenir. Otomatik olarak askıya alınır ve insan moderatörlere düşer.
Yorumlar, mesajlar ve gönderi metinleri çoklu dilde nefret söylemi, taciz, tehdit ve cinsel içerik açısından sınıflandırılır. Eşik üstü içerikler insan moderatöre düşer; otomatik silme yoktur — insan kararı şarttır.
Yorumlar ve gönderiler isteğe bağlı olarak kullanıcının diline çevrilir. Çeviri opt-in'dir, kullanıcının orijinal metnini değiştirmez.
Sesli mesajlar, işitme engelli kullanıcılar için isteğe bağlı olarak metne dönüştürülür. Veri sadece o mesaj için işlenir, depolanmaz.
Yüklenen fotoğraf/video içeriklerinden konu, mekan ve tema önerilir; kullanıcı kabul etmedikçe etiket eklenmez. Algoritmanın değil, kullanıcının kararı önceliklidir.
Belirli risk sinyalleri içeren mesaj veya gönderiler tespit edildiğinde kullanıcıya gizli, yargılayıcı olmayan bir destek mesajı (Türkiye'de 182 acil yardım hattı) gösterilir.
Ana akışta hiçbir 'For You' algoritması yoktur. Sıralama; etiket eşleşmesi, ilgi alanı ve kronolojidir. Mio sana ne göstereceğine sen karar verirsin.
Tıklanma süresini artırmak için 'rage bait', polarize içerik veya bağımlılık döngüsü mühendisliği yapan bir AI sistemi kullanmıyoruz — kullanmayacağız.
Mio reklamsızdır. Kullanıcı verisini reklam hedefleme amacıyla profillemek üzere hiçbir AI eğitilmez veya kullanılmaz.
Kullanıcı içeriği, mesajları, görselleri veya davranış verisi üçüncü taraf yapay zeka şirketlerine eğitim verisi olarak satılmaz, paylaşılmaz veya lisanslanmaz.
Hiçbir kullanıcı içeriği yalnızca bir AI kararıyla silinmez. AI sadece sinyal üretir; nihai karar her zaman insan moderatörden geçer. Kullanıcı her zaman itiraz hakkına sahiptir.
Hepsi belirli bir kullanıcı sorununu çözmek için. Hiçbiri 'AI olsun da kullansak' diye değil.
Hate speech ve taciz tespitini 50+ dile genişletme. Düşük kaynaklı dillerde (Türkçe lehçeleri, Arapça lehçeleri, Kürtçe varyantları) açık kaynak modellere katkı.
AI tarafından üretilmiş görsel ve videoları otomatik tespit edip görünür şekilde etiketleme. Kullanıcı şeffaflığı için zorunlu etiket — saklanamaz.
Kullanıcı isterse gönderi taslağını iyileştirme, dilbilgisi düzeltme, çeviri önerisi sunan AI asistanı. Varsayılan KAPALI. Hiçbir gönderi otomatik AI tarafından oluşturulmaz — tüm üretim açıkça kullanıcı izniyle.
Görme engelli kullanıcılar için tüm görsellere otomatik alt-text üretimi. Üretici kullanıcı, alt-text'i her zaman düzenleyebilir.
Sesli mesaj ve canlı yayında gerçek zamanlı çoklu dil çevirisi. Veri sadece o oturumda işlenir, kayda alınmaz.
Şirket olarak 2 yıl ötesini de hedefliyoruz. Çocuk güvenliği modellerimizi açık kaynak yayımlamak, federated learning'le veriyi cihazda tutmak, yerli LLM ekosistemine katkı sağlamak — bunlar 'belki' değil, yol haritamız.
Mio'nun çocuk güvenliği sınıflandırıcılarını ve eğitim metodolojisini açık kaynak olarak yayımlamayı planlıyoruz. Türkiye'den dünyaya katkı: küçük platformların da büyük şirketler kadar güvenli olabilmesi için.
Kullanıcı verisini sunucuya hiç çıkarmadan modelleri kullanıcı cihazında eğitme (federated learning). Mahremiyet pahasına güvenlikten ödün vermek zorunda olmadığımızı kanıtlamak istiyoruz.
Bir içerik gizlendi/uyarıldı/silindi ise; kullanıcıya 'neden' sorusunun cevabını teknik dilde değil insan dilinde sunan bir Açıklanabilir AI katmanı.
Türkçe ve bölgesel dillerde açık kaynak büyük dil modellerine (TURNA, BERTurk vb.) finansal ve veri katkısı; bağımsız Türkçe AI ekosistemini güçlendirme misyonu.
Kişisel kimlik kullanmadan, sosyal etkileşim örüntülerine dayalı topluluk-tarafından-doğrulanmış güven katmanı. Sahte hesap, scam ve manipülasyona karşı yapısal savunma.
Her kullanıcının yalnızca kendi içeriğine ait, kendisinin kontrolündeki, başka platforma götürebileceği bir kişisel AI asistanı. Kapatılabilir, silinebilir, dışa aktarılabilir.
AI sistemlerimizin bağımsız bir denetim kuruluşu tarafından yıllık denetlenmesi ve raporun kamuya açık yayımlanması. Şeffaflık iddiasını sözle değil, bağımsız üçüncü tarafla kanıtlamak.
Akademisyenler, hak savunucuları ve kullanıcı temsilcilerinden oluşan bağımsız bir konsey; major AI özellikleri yayına alınmadan önce inceler.
Bu ilkeler ürün geliştirme sürecimizin parçasıdır. Bir AI özelliği bunlardan birini bile karşılamıyorsa yayına alınmaz.
Hangi AI'ı nerede kullandığımız, ne karar aldığını ve hangi sınırları olduğunu kamuya açıkça belgeleriz. Bu sayfa o sözün kanıtı.
AI tarafından alınan her karara kullanıcı itiraz edebilir. Otomatik silme yoktur, insan moderatör son kararı verir.
AI sadece görevi için gereken minimum veriyi işler. Sınıflandırma sonrası ham içerik silinir, yalnızca metadata loglanır.
AI'yı içerik üretmek için DEĞİL, içeriği güvenli kılmak için kullanırız. AI üretim özellikleri her zaman opt-in ve etiketli olarak sunulur.
Mümkün olduğunda açık kaynak modelleri tercih ederiz. Kapalı kaynak kullandığımızda, sağlayıcıyı ve veri politikasını açıkça belirtiriz.
AI'ı kullanıcıyı bağımlı kılmak veya manipüle etmek için ASLA kullanmayız. AI'ın varlığı kullanıcıya hizmet etmek içindir, kullanıcıdan veri çıkarmak için değil.
AI politikalarımız, kullandığımız modeller, denetim raporlarımız ve veri işleme protokollerimiz hakkında detaylı bilgi için bizimle iletişime geçebilirsiniz. Akademik araştırma talepleri öncelik sıramızdadır.
Veri satmıyoruz. Reklam göstermiyoruz. AI'ımız seni kazanmak için değil, korumak için var.
Çoğu sosyal ağ "AI etiğini önemsiyoruz" der ama hangi modeli, ne için, hangi sınırlar içinde kullandığını belgelemez. Bu sayfa o belgenin kendisi.
Mio'nun AI yaklaşımı yıllık bağımsız denetimden geçecek; rapor kamuya açık yayımlanacak. 2027 itibarıyla tüm güvenlik modellerimizin temel mimarisini açık kaynak yayımlamayı hedefliyoruz.
Sorular, geri bildirimler ve akademik iş birlikleri için: [email protected]