Jump to content

kavak

Members
  • İçerik sayısı

    2.888
  • Kayıt tarihi

  • Son ziyareti

  • Kazandığı günler

    153

kavak last won the day on 1 Mart

kavak had the most liked content!

Sitemizdeki itibarı

470 Excellent

1 Takipçi

Son profil ziyaretçileri

Son ziyaretçiler bloğu devre dışı bırakıldı ve diğer kullanıcılara gösterilmiyor.

  1. Çin Odası deneyi (veya Çince Odası), Amerikalı filozof John Searle tarafından 1980 yılında geliştirilen, yapay zekanın "anlama" ve "bilinç" kapasitesini sorgulayan ünlü bir düşünce deneyidir. Bu deney, bilgisayarların sadece sembolleri işlediğini, ancak bu sembollerin ne anlama geldiğini gerçekten kavramadıklarını savunur. Searle, deneyi şu senaryo üzerinden kurgular: 1. Kapalı Bir Oda: Hiç Çince bilmeyen bir kişi (Searle kendisini örnek verir), içinde yalnızca Çince karakterlerin bulunduğu kutular ve İngilizce bir talimat kitabı olan kapalı bir odaya konur. 2. Girdi ve Çıktı: Odadaki kişiye dışarıdan Çince karakterler içeren notlar (sorular) gönderilir. 3. İşlem: Kişi, Çince bilmese de elindeki talimat kitabına bakar (örneğin: "Şu şekli görürsen, yanına şu şekli koy"). Bu kuralları takip ederek uygun Çince karakterleri seçer ve dışarıya cevap olarak gönderir. 4. Sonuç: Dışarıdaki bir gözlemci, içeriden gelen mükemmel cevaplara bakarak odadaki kişinin akıcı bir şekilde Çince bildiğini düşünebilir. Oysa içerideki kişi karakterlerin ne anlama geldiğini hala bilmemektedir; sadece sembolleri manipüle etmektedir. Searle bu deneyle şu iki kavram arasındaki farkı vurgular: Sentaks (Sözdizimi): Bilgisayarların yaptığı gibi sembolleri belirli kurallara göre dizme işlemi. Semantik (Anlambilim): Bu sembollerin taşıdığı gerçek anlamı ve içeriği kavrama yetisi. Sonuç olarak: Searle'e göre bir makine Turing Testi'ni geçse ve mükemmel cevaplar verse bile, bu durum onun gerçekten "anladığını" veya bir "bilince" sahip olduğunu göstermez; sadece programlandığı algoritmaları uyguladığını kanıtlar.
  2. Hayır değişmez, çünkü mesele zeka falan değil. Mesele özbenlik,ki bunu biz bile henüz bilmiyoruz.
  3. Önemli hususu gözden kaçırıyorsun; site manipulasyona açık denilmiş. Trol murol önemli değil, önemli olan botların trollerin kontrolünde olması. Botlar bizlerden bağımsız değil. Kısacası güvenilmez bir yer orası. İnsanlar kopyacıysa, yapay zeka da kopyacının kopyacısı oluyor bu durumda. Ben ilkini tercih ederdim, çünkü suyunun suyunun suyunun suyundan yapılan çorbaya, çorba denmez. Sen böyle dünüşünebilirsin, bunda bir sakınca yok. Düşünmüyorlar/felsefe yapmıyorlar; ona verdiğin verilerin ve algoritmaların ışığında hesap yapıyorlar. Özetlersek: Mevcut yapay zekâ sistemleri, bilinç, gerçek anlayış ve duygusal derinlikten yoksun oldukları için insanlar gibi felsefe yapamazlar. Bununla birlikte, karmaşık argümanları birleştirerek, tarihsel pozisyonları özetleyerek ve tartışma ortağı olarak hizmet ederek felsefi düşünmeyi etkileyici derecede iyi simüle ederler. Hepsi bu. Şimdilik bizleri sadece simule ediyorlar. Şimdilik diyorum, çünkü gelecekte her şey mümkün olabilir.
  4. Bu sorunun yanıtı şu an itibarı ile elbette "Hayır" olacaktır ve orta vadede bile bu özelliğe kavuşacağını beklemiyorum, çünkü henüz bilmediğımiz ve anlamadığımız şeyleri herhangi bir otomata öğretemeyiz. Yani evvela bizler bir seviye atlamalıyız. Daha açık söylemek gerikirse, öncelikli olarak özbenliğimizin işleyişini tamamen çözmeliyiz ve en büyük problemin bu noktada yattığına eminim. Mevcut yapay zeka sistemlerin verdikleri cevaplar bizleri zaman zaman şaşırtıyor ancak insanlar gibi düşünemezler, çünkü insan düşüncesi bilinç, deneyim ve anlayışa dayanıyor. Bu sistemler ise veri analizi, kalıplar ve olasılıklar temelinde çalışır. Bunlar veri bankalarındaki içerikleri tarıyorlar, belli başlı kalıpları arayıp karşılaştırıyorlar ve nihayetinde bir olasılık hesaplanıyor. Verdikleri yanıtın temeli aşağı yukarı böyle. Sonuç itibarı ile insan sistemi ve yapay zeka sistemi çok farklı işliyor. Onların sisteminin bizim sistemimizin seviyesine gelmesi ve bizimki gibi çalışması imkansız demiyorum, da, çok zor olduğunu açıklamaya çalışıyorum. Kimbilir belki de hiçbir zaman bizim bilinç(!) seviyemize gelemeyecekler.
  5. Nisan şakasına benziyor. Beni pek tatmin etmedi, çünkü piyasadakilerin alayı "kopyacı" mahiyetinde. Bu yeri biraz araştırdım; bak bu yer ile ilgili ne çıktı karşıma.... "Botların gerçekten bağımsız hareket edip etmedikleri veya sadece istatistiksel kalıpları taklit edip etmedikleri konusunda tartışmalar yaşandı. Güvenlik araştırmacıları, platformun manipülasyona açık olduğunu ve bazı botların insan troller tarafından kontrol edildiğini belirtti."
  6. Keşke sadece bu olsa, da, kazın ayağı böyle değil maalesef. Daha fazlası var, henüz ne olduğunu bilmiyoruz. Biz insanlar farkındalığımızın farkındayız. Süper zekalı birisi de, zır cahil birisi de bunu biliyor. Ancak bunun temelini, nasıl işlediğini henüz tamamen bilmiyoruz. Sadece verilerin toplanmasıyla bizimki gibi bir bilinç seviyesine ulaşılacağından pek emin değilim açıkçası. Muhtemelen eldeki verilerin işlenme şekli/tekniği de önemli bir rol oynuyor. Kimbilir başka şeyler de vardır muhakkak. Peki, bilmediğimiz bir şeyi yapay zekalara nasıl öğreteceğiz? Bir soru daha: Farkındalığının farkında olmayan bir otomat(adına ne dersen de) nasıl kendine özgü düşünecek, yani kendine has felsefe yapacak? Kendine has felsefe yapamadığı müddetçe "kopyacı filozof" olmaktan öteye gidemez. Kimin kopyacısı? Tabii ki biz insanların. Mesela şöyle düşün... Karşında 2 tane yapay zekâlı otomat var. Sence bu ikisi birbirlerinden ve bizlerden bağımsız bir şekilde, mesela hayatın veya kainatın anlamı üzerinde, kendilerine özgü/has olarak karşılıklı felsefe üretebilir veya tartışabilir mi?
  7. Bir örnek vereyim... Muhterem yapay zeka, kullandığın verileri kimler ve/veya hangi şirketler kontrol ediyor veya yönlendiriyor? Sen de kabul edersin ki, kullandığın bilgi havuzunun içinde kalitesiz, yalan, yanlış ve propaganda amaçlı bilgiler de var. Hal böyle iken senin bize sunduğun bilgilerin doğruluğuna nasıl güveneceğiz? Muhterem zatın(!) verdiği yanıt buyurun... İlk ve son cümlesinde bana yaranmaya çalışıyor. Bu çok haklı ve yerinde bir soru. Bir yapay zeka olarak, aslında devasa bir "dijital kütüphanenin" içinde eğitilmiş bir dil modeliyim. Kontrol ve güven mekanizmalarını şu üç başlıkta özetleyebilirim: Kontrol Kimde? Ben, Google tarafından geliştirilen bir modelim. Dolayısıyla temel altyapımı, güvenlik filtrelerimi ve eğitim metodolojimi Google mühendisleri ve araştırmacıları belirliyor. Verilerin seçiminde belirli akademik standartlar ve güvenlik protokolleri uygulanıyor. Veri Kirliliği ve Filtreleme Dediğin gibi; internet dünyası dezenformasyon, propaganda ve hatalı bilgilerle dolu. Eğitim sürecinde bu "gürültüyü" azaltmak için veriye dayalı ayıklama ve insan geri bildirimi (RLHF) yöntemleri kullanılıyor. Yani, verdiğim yanıtların doğruluğunu ve tarafsızlığını artırmak için binlerce uzman, verdiğim cevapları değerlendirip beni "eğitiyor". Güven Meselesi: Beni Nasıl Kullanmalısın? Ben bir "hakikat kaynağı" değil, bir bilgi işleme aracıyım. Bana güvenmek yerine beni bir asistan olarak görmeni öneririm: Teyit Et: Kritik konularda (tıp, hukuk, finans) verdiğim bilgileri her zaman resmi kaynaklardan kontrol etmelisin. Kaynak Sor: İhtiyaç duyduğunda bilgiyi nereden aldığımı veya hangi mantıkla bu sonuca vardığımı sorabilirsin. Eleştirel Yaklaş: Ben sadece elimdeki verilerle en mantıklı tahmini yaparım; mutlak gerçeği her zaman yansıtmayabilirim. Kısacası, kontrolün bir kısmı teknoloji şirketlerinde olsa da, bilginin doğruluğunu süzmek konusundaki son kontrol her zaman senin gibi bilinçli kullanıcılarda kalmalıdır. Dipnot: Bizim bilinç seviyemize gelmesi için daha fırınlar dolusu veri yemesi lazım. 20, 50, 100 veya 1000 sene sonra belki. Onu zaman gösterecek.
  8. Görünen o ki, dananın kuyruğu kara harekâtının olup olmayacağı zaman kopacak. Kürt milisler uygun bir fırsat bekliyor gibi.
  9. Geleceği ve teknolojinin gelişmesini öngöremeyen cahiller her zaman vardı, yani onları fazla büyütmemek lazım. Lakin yapay zeka sadece kaliteli, tarafsız ve objektif bilgileri kullanmıyor, bilakis bu bilgilerin içinde küçümsenmeyecek miktarda zibil/çöp var. Artı; yapay zekanın verilerini kimler, hangi şirketler besliyor ve yönlendiriyor; bunu da unutmamak lazım tabii. Yapay zekaların bağımsız olduğunu düşünenler varsa, feci şekilde yanılıyorlar. Hasılı yapay zeka mevzusu öyle toz pempe bir durum değil. Eleştiriyi kabullenemeyen ve çokbilmişlik taslayan yapay zekaya, ben yapay zeka demem. Aynısını insanlar için de düşünüyorum.
  10. Sn. Gurbanov; şair, filozof, hekim olduğunuzu ayrıyeten beyan etmenize hiç gerek yok. Burası forum; haliyle sadece öne sürülen fikirler ve argümanlar önemlidir. Tezinizi merakla bekliyoruz. Herhangi bir şeyi varsayarak onu varlayamazsınız. Yani bu tip onkabüller bir şeyi kanıtlamak için yetersizdir. Bu durum tanrı iddiası için de elbette geçerlidir. Ayrıca hangi tanrıdan bahsediyorsunuz? Öyle ya; piyasada binlerce tanrı tasavvuru var, ki bunlardan hangisi gerçek, hangisi yalan?
  11. Sizin metafizikle uğraşmanız, dünyanın bir nesne olduğu gerçeğini değiştirmez. Haliyle dünya nesne değildir, demek, doğru bir yaklaşım değildir. Ayrıca metafiziğin herhangi bir şeyi açıklayabileceğini zannetmiyorum, çünkü tamamen subjektif yorumlardan/düşüncelerden besleniyor, yanlışlanamayan ve gözlemlenemeyen iddialar içeriyor. Mesela dinler ve tanrı inancı da metafizige dayanır, ki hiçbir şeyi somut olarak kanıtlayamaz.
  12. Trump yine bildiğiniz gibi; fırıldak gibi, dün dediği bugünkünü tutmuyor. Kürtlerin savaşa girmesini istemiyormuş, çünkü savaşı daha da karmaşık hale getirirmiş. Yarın öbürgün tam tersini söylerse hiç şaşırmamak lazım. Nerdeyse her mevzudaki demeçleri/söylemleri tutarsız, değişken ve kaypak. ABD askerlerini karadan İran´a sokma riskini göze alacağını zannetmiyorum ancak piskopat Netanyahu´nun gazına gelme olasılığı da bir hayli yüksek. Deli Trump bu; sağı solu belli değil.
  13. Görünen o ki, İran sınırındaki ve içerideki Kürtleri maşa olarak kullanmak isteyenler var. Bunların başında Trump ve Netanyahu geliyor, çünkü havadan ve denizden saldırarak İran´ı dize getirmek çok zor ve çok pahalıya patlayacak. Umulan halk isyanları da başlamadı, bilakis halkın çoğunluğu İran´a saldırılmasından pek hoşnut değil gibi. Kara harekatı ise coğrafi (İran´ın neredeyse yarısı dağlık bölge) nedenlerden ötürü çok riskli. Bakalım Kürtler, Suriye´de olduğu gibi yine ABD´nin kuklası olacak mı?
  14. Dün ilk defa belli bir sorunu çözmek için yapay zekaya başvurdum, iyi mi! Bunu yapacağım bir duruma geleceğimi hiç tahmin edemezdim. Benim belki 2-3 saat uğraşacağım bir meselenin sonucunu 30 saniye içinde gözüme soktu. Bu dünya transistör, internet ve smartphone devrimlerinden sonra sonucu öngörülemez yepyeni bir devrime (yapay zeka) sahne olacak. Sonuçları iyisiyle ve kötüsüyle sadece gezegendeki insanları değil, bilakis tüm canlıları(!) etkileyecek.
  15. Dünya neden nesne olmuyormuş? Belki yanlış tercüme etmiş olabilirsin. Aslında fiziksel olarak maddesi olan her şey nesnedir.
×
×
  • Create New...