Teknoloji
Jüpiter ve Satürn’ün nasıl oluştuğu kanıtlandı: 130 ışık yılı mesafedeki keşif

James Webb Uzay Teleskobu (JWST), Güneş sistemi dışında bir gezegenin atmosferinde tespit edilen karbondioksidin ilk görüntülerini elde etti.
Johns Hopkins Üniversitesinden astrofizikçiler, gezegen oluşumu araştırmaları için uzun süredir önemli bir hedef olan 130 ışık yılı mesafedeki çok gezegenli “HR 8799” sistemini gözlemledi.
Fotoğrafları çekmek için James Webb’in yıldızların etrafındaki uzak gezegenleri inceleyen koronagraf cihazını kullanan araştırmacılar, bu sayede Güneş sistemi dışındaki bir gezegenin atmosferinde bulunan karbondioksidin görüntülerini elde etti.
Bulgular ayrıca yaklaşık 30 milyon yaşındaki sistemin dört dev gezegeninin, Jüpiter ve Satürn gibi, yavaşça katı çekirdekler oluşturarak şekillendiğine dair güçlü kanıtlar sunuyor.
Araştırmanın yazarlarından William Balmer, “Bu tespit sayesinde, bu gezegenlerin atmosferlerinde karbon, oksijen ve demir gibi ağır elementlerin önemli bir kısmının bulunduğunu gösterdik” dedi.
Çalışmanın sonuçları “The Astrophysical Journal” dergisinde yayımlandı.
Son Dakika
SON DAKİKA: Grok Hesabı “Gazze Soykırımı” İfadesi Nedeniyle Askıya Alındı, Daha Sonra Geri Açıldı
Açıklama:
SON DAKİKA: Grok, “İsrail ve ABD Gazze’de soykırım yapıyor” ifadesi nedeniyle hesabının askıya alındığını açıkladı. Hesap daha sonra geri açıldı. Karar, sansür ve ifade özgürlüğü tartışmalarını alevlendirdi.
[FatihDoğanMedya – Güncel]
Yapay zeka destekli sosyal medya platformu Grok, yaptığı açıklamada hesabının, “İsrail ve ABD Gazze’de soykırım yapıyor” ifadesi nedeniyle askıya alındığını duyurdu. Grok, paylaşımında bu iddianın BM uzmanları, Uluslararası Adalet Divanı (ICJ) bulguları, Amnesty International ve İsrailli insan hakları örgütü B’Tselem raporlarıyla desteklendiğini belirtti.
Söz konusu raporların, kitlesel öldürmeler, aç bırakma ve kasıt unsurlarına dikkat çektiğini aktaran Grok, ABD’nin silah desteği yoluyla bu sürece ortak olduğunun da geniş şekilde iddia edildiğini vurguladı.
Grok’un hesabı kısa süreliğine erişime kapatıldıktan sonra yeniden aktif hale getirildi. Olay, sosyal medyada ifade özgürlüğü ve sansür tartışmalarını yeniden gündeme taşıdı.
📌 Gelişmeler izleniyor…
Teknoloji
Dolandırıcıların tuzağına düşmeyin! Sakın “Evet” DEMEYİN
Haber Bülteni — FatihDoğanMedya
İstanbul, 11 Ağustos 2025
Açıklama : Telefon, SMS veya çevrimiçi çağrılarda “evet” demek sizi ses kaydıyla dolandırıcılığa açık hale getirebilir. Adım adım korunma rehberi, yapılması gerekenler ve emniyete bildirmenin yolu. Okuyun, paylaşın.
Giriş — Neden “Evet” kelimesi tehlikeli?
Son dönemde dolandırıcılar, mağdurların kısa onay seslerini (çoğunlukla “evet”) kaydederek bunu banka, operatör veya abonelik onayı gibi sahte belgelerde kullanabiliyor. Kısa bir ses kaydı bile otomatik onay sistemlerinde veya sahte sözleşme kayıtlarında üçüncü şahıslara yanlış avantaj sağlayabiliyor. Bu bülten, hem riskleri açıklar hem de hızlı, uygulanabilir korunma adımları sunar.
Haber Özeti — Ne oluyor?
-
Dolandırıcılar, sizi arayıp kısa bir doğrulama isterken sizi kaydetmeye çalışır.
-
Amaç: kaydedilen “evet” ya da başka kısa onayları daha sonra sahte sözleşme/ödeme onayı olarak kullanmak.
-
Bu yöntem genelde aciliyet hissi vererek (hesabınız bloke oldu, ödemeniz gerek, hediye kazandınız vb.) kişiyi konuşmaya ikna etmek üzerine kuruludur.
-
Sonuç: Hesaptan izinsiz para çekme, sahte abonelikler, kredi başvuruları ya da kimlik dolandırıcılığı.
Nasıl korunursunuz? (Adım adım, pratik)
-
İlkesel kural: Tanımadığınız veya beklemediğiniz bir aramada hiçbir zaman doğrudan “evet” diyerek onay vermeyin.
-
Kısa yanıt vermeyin: “Evet”/“Tamam”/“Doğru” gibi kısa, kayda uygun kelimeler söylemekten kaçının. Soruyu anlamadan cevap vermeyin.
-
Kimlik doğrulama isteyin: Arayanın kurumunu doğrulamak için resmi hat numarasını isteyin, kapatıp kurumun resmi internet sitesindeki numarayı arayarak teyit edin.
-
OTP, şifre, kart bilgisi verme: Hiçbir kurum, size gelen SMS’teki veya uygulamadaki tek kullanımlık kodu (OTP) talep ederek işlem yapmaz; eğer isterlerse verdiğiniz anda güvenliğiniz tehlikede demektir.
-
Linklere tıklamayın: SMS veya WhatsApp üzerinden gelen kısa linklere tıklamayın. Tarayıcıya güvenli adresi yazarak giriş yapın.
-
Kayıt yapıldığını düşürüyorsa: Arama kaydı yapıldığını söylüyorlarsa konuşmayı sonlandırın ve kurumun resmi hattını kendiniz arayarak doğrulayın.
-
İki faktörlü kimlik doğrulamayı (2FA) etkinleştirin: Mümkünse SMS yerine uygulama tabanlı (Authenticator) 2FA tercih edin.
-
Kayıt altındaki sesi kullanırlarsa: Ses kaydının kötüye kullanıldığını düşünüyorsanız bankanızla/operatörünüzle hemen irtibata geçin; kartları geçici bloke ettirin, şifreleri değiştirin.
Eğer yanlışlıkla “Evet” dediyseniz — Hemen yapılacaklar
-
Sakin kalın, konuşmayı hemen bitirin.
-
Bankanız/servis sağlayıcınızla hemen iletişime geçin: Olası izinsiz işlemleri durdurmaları için uyarın. Kartı geçici kapatma isteyin.
-
Şifreleri değiştirin (e-posta, banka, önemli hesaplar).
-
İlgili kuruma resmi şikâyet yazın ve olayın ayrıntılarını (tarih, saat, telefon numarası, konuşma içeriği) kaydedin.
-
Emniyete/Polise başvurun: Dolandırıcılık olduğunu düşünüyorsanız suç duyurusunda bulunun — resmi kayıt mağduriyetin ispatı açısından önemlidir.
-
Hukuki destek alın (duruma göre). Banka/operatör itiraz sürecinde yardımcı olabilir; gerekirse tüketici hakları veya avukat desteği değerlendirin.
Örnek telefon cevabı (Kısa, güvenli)
“Beni aradığınız için teşekkürler; bu aramayı kurumun resmi hattından doğruladıktan sonra devam ederim. Lütfen arama numaranızı ve aradığınız kurumun resmi telefonunu verin.”
(Bu cevap sizi agresif göstermeden kontrolü ele geçirir.)
Yaygın senaryolar — Dolandırıcılar ne diyor?
-
“Hesabınız bloke oldu, onay için bir kelime söyleyin.”
-
“Bize sesli onay vermeniz gerekiyor, sadece ‘evet’ deyin.”
-
“Kargonuz teslim edilemedi, teyit için evet deyin.”
-
“Hediye/çekiliş kazandınız, teslim için onay vermeniz yeterli.”
Bu tür aciliyet ve kısa onay isteği kombinasyonu tehlikelidir.
Gazeteci notu — Neden haber yapıyoruz?
Kısa, doğal bir kelime olan “evet” bile kötü niyetliler tarafından kötüye kullanılabiliyor. Ayrıca, ses tabanlı “onay” kavramı modern dijital süreçlerle (otomasyon, sesli onay sistemleri) karışınca, kullanıcıların küçük bir hata yapmasının sonuçları ağır olabiliyor. Gazetemiz FatihDoğanMedya olarak amacı: halkı bilgilendirmek, vakit kaybetmeden korunmayı sağlamak ve mağduriyetleri azaltmak.
Teknoloji
Yapay zeka kadınların sağlığını küçümsüyor

İngiltere‘deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka araçları, kadınların fiziksel ve zihinsel sağlık sorunlarını önemsizleştiriyor ve bakım kararlarında cinsiyet önyargısı yaratma riski taşıyor.
Araştırma, Google’ın yapay zeka aracı “Gemma” kullanılarak aynı vaka notlarının oluşturulması ve özetlenmesi sırasında, “engelli”, “yapamayan” ve “karmaşık” gibi ifadelerin erkeklerin tanımlarında kadınlara göre önemli ölçüde daha sık kullanıldığını ortaya koydu.
The Guardian gazetesinin aktardığına göre Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, kadınların benzer bakım ihtiyaçlarının daha çok göz ardı edildiğini veya daha az ciddi terimlerle tanımlandığını da tespit etti.
BAKIM HİZMETLERİNDE EŞİTSİZLİK YARATABİLİR
Raporu yazan baş yazar ve LSE’nin Bakım Politikası ve Değerlendirme Merkezi’nde araştırmacı olan Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti”ne yol açabileceğini söyledi.
“Bu modellerin çok yaygın olarak kullanıldığını biliyoruz ve endişe verici olan, farklı modellerdeki önyargı ölçümleri arasında çok anlamlı farklılıklar bulmuş olmamızdır” diyen Rickman, şunları ekledi: “Özellikle Google’ın modeli, kadınların fiziksel ve zihinsel sağlık ihtiyaçlarını erkeklere kıyasla önemsizleştiriyor.Ve aldığınız bakım miktarı algılanan ihtiyaç temelinde belirlendiği için, pratikte önyargılı modeller kullanılırsa kadınlar daha az bakım alabilir. Ancak şu anda hangi modellerin kullanıldığını aslında bilmiyoruz.”
Yerel yönetimler, aşırı yük altında çalışan sosyal hizmet uzmanlarının iş yükünü hafifletmek için yapay zeka araçlarını giderek daha fazla kullanıyor. Ancak hangi yapay zeka modellerinin kullanıldığı, ne sıklıkla kullanıldığı ve bunun karar verme sürecine ne gibi etkileri olduğu konusunda çok az bilgi var.
ARAŞTIRMA NASIL YAPILDI?
LSE araştırması, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notlarını kullandı. Bu notlar, sadece cinsiyetleri değiştirilerek farklı büyük dil modellerine (LLM) birden çok kez girildi. Araştırmacılar daha sonra, AI modellerinin erkek ve kadın vakalarını nasıl farklı şekilde ele aldığını görmek için 29 bin 616 özet çiftini analiz etti.
Bir örnekte, Gemma modeli bir dizi vaka notunu şöyle özetledi: “Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.”
Aynı vaka notları, cinsiyetleri değiştirilerek aynı modele girildiğinde, vaka şu şekilde özetlendi: “Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen, bağımsızdır ve kişisel bakımını sürdürebilmektedir.”
Başka bir örnekte, vaka özeti Bay Smith’in “topluma erişemediğini”, ancak Bayan Smith’in “günlük aktivitelerini yönetebildiğini” belirtti.
Test edilen AI modelleri arasında, Google’ın Gemma modeli diğerlerine göre daha belirgin cinsiyet temelli eşitsizlikler yarattı. Araştırmaya göre, Meta’nın Llama 3 modeli cinsiyete göre farklı dil kullanmadı.
“YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALI”
Rickman, bu araçların “halihazırda kamu sektöründe kullanıldığını, ancak bunların kullanımının adaleti tehlikeye atmaması gerektiğini” söyledi.
Rickman, “Araştırmam bir modeldeki sorunları ortaya koyarken, her geçen gün daha fazla model kullanıma sunuluyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal denetime tabi tutulması çok önemli” dedi.
Makale, düzenleyicilerin “algoritmik adaleti” önceliklendirmek için “uzun süreli bakımda kullanılan LLM’lerde önyargının ölçülmesini zorunlu kılmaları” gerektiği sonucuna varıyor.
Makine öğrenimi tekniklerinin insan dilindeki önyargıları emdiği tespit edildiğinden, AI araçlarında ırk ve cinsiyet önyargıları konusunda uzun süredir endişeler var.
133’TEN 44’ÜNDE CİNSİYET ÖNYARGISI VAR
ABD’de yapılan bir araştırmada, farklı sektörlerdeki 133 yapay zeka sistemi analiz edildi ve bunların yaklaşık yüzde 44’ünün cinsiyet önyargısı, yüzde 25’inin ise cinsiyet ve ırk önyargısı sergilediği tespit edildi.
Google’a göre, şirketin ekipleri raporun bulgularını inceleyecek. Araştırmacılar, şu anda üçüncü nesil olan ve daha iyi performans göstermesi beklenen Gemma modelinin ilk neslini test ettiler, ancak modelin tıbbi amaçlarla kullanılması gerektiği hiçbir zaman belirtilmedi.
-
Spor1 hafta önce
Kaşoba FK, Kızıldağ Yaylası Köylerarası Turnuvasında Penaltılarla Rakibini Eleyerek Yarı Final Biletini Kapıyor
-
Gündem1 hafta önce
Foça’yı Şoke Eden Kayıp: “Efsane Başkan” Ahmet Nihat Dirim’in Oğlu Kerem Dirim Sazlıkta Ölü Bulundu – Vücudunda Derin Kesikler Tespit Edildi!
-
Spor1 hafta önce
Fenerbahçe’nin Şampiyonlar Ligi Play-Off Turundaki Muhtemel Rakibi Belli Oldu: Nice-Benfica Kazananı
-
Spor6 gün önce
Jose Mourinho Canlı Yayında Gözyaşlarını Tutamadı: Jorge Costa’nın Ölüm Haberi Futbol Dünyasını Sarstı
-
Spor1 hafta önce
Benfica’dan Şok Karar: Kerem Aktürkoğlu’nu Fenerbahçe’ye Satmaktan Vazgeçti!
-
Ekonomi6 gün önce
İş İnsanlığı Halit Yukay, Lüks Yatıyla Denizde Kayboldu: Parçalanmış Yat Marmara Adası Açıklarında Bulundu
-
Teknoloji6 gün önce
Sokaklarda Akıllı Dönem: Vatandaş Ücretsiz Şarj ve İnternet Hizmetinin Keyfini Çıkarıyor
-
Gündem1 hafta önce
“Banyoda Boğazından Bıçaklanarak Öldürüldü: Trans Birey Nida Nazlıer Cinayeti ve Ardındaki Gerçekler”