2021’in başında bir Wikipedia yöneticisi geleceğe baktı ve ufukta huni bulutu gibi görünen bir şey gördü: OpenAI’nin yeni sohbet robot habercisi olan GPT-3’ün yükselişi. Sitede Barkeep49 adıyla anılan üretken bir Vikipedist olan bu editörün yeni yükünü denediğinde, buna güvenilmez olduğunu görebildi. Bot, belirleyen unsurlar (sahte bir isim, yanlış bir akademik alıntı) başka türlü olgusal ve alınan yanıtlara kolayca karışır. Ancak kullanım hakkında hiç şüphesi yoktu. Vikipedi’nin kendi başlığı altında yazdığı bir makale olan “Vikipedi’nin Ölümü”nde, “Yapay zekasının yüksek kaliteli bir ansiklopedi yazma ürününün er ya da geçtiğini düşünüyorum” diye yazdı. Bölümler Vikipedi’nin 2012’de basılan yayınına son sonuçlarını duyuran Encyclopaedia Britannica’nın yerini alacağı gibi, bilgisayarlı bir modelin bakış açısı çok sevdiği web çıkışı ve onun insan editörlerinin yerini alacağını alacağız.
Bu Makaleyi Dinle
Daha fazla sesli gazetecilik ve hikaye anlatımı için, New York Times Audio’yu indirin, haber abonelerinin kullanım olanağı sağlayan yeni bir iOS uygulaması.
Geçenlerde bu editöre sorduğumda – Wikipedia editörleri kullanıcı kullanımının hedef olması için adını vermemi istedi – hala ansiklopedinin kaderi hakkında endişeleniyorsa, yeni canavar onu ChatGPT’nin bir düşmanının fazla inandığını söyledi. . Vikipedi için “Önümüzdeki üç yıl boyunca her şeyin yolunda gitmesi beni şaşırtmaz” dedi, “ve sonra birdenbire, 4. veya 5. Yılda her şey uçurumdan düşer.”
Wikipedia, Ocak ayının 22. yılını kutladı. Pek çok yol, açık işbirliği deneylerinin – herkes Wikipedia için yazıp düzenleyebilir – dijital alan henüz milyarlarca götürenlere ve veri madencilerine, reklam entrikacılarına devam ettiği ve sosyal medyaya bırakmadığı İnternet’in ütopik ilk günlerine bir geri dönüş olmaya gidiyor. -medya propagandacıları. Wikipedia’nın amacı, kuruluş merkezi Jimmy Wales’in 2004’te tanımladığı şekliyle, “gezegendeki her bir kişiye, tüm insan bilgilerinin toplamına ücretsiz erişime açık bir dünya” yaratmatı. Ertesi yıl, Galler ayrıca “İnternetin bozulmalarından yardımcı oluyoruz” dedi. Wikipedia’nın artık 334 yayın sürümü ve sürümü 61 sayfadan fazla makalesi var. Sürekli olarak dünyanın en çok ziyaret edilen 10 web sitesi arasında yer alıyor, ancak bu seçkin grup arasında (her zamanki liderler Google, YouTube ve Facebook olan) kâr amacından kaçınma konusunda yalnız. Vikipedi, bağışlanmak istenen durumlar dışında reklam yayınlamaz ve sitede dakikada yaklaşık 345 düzenleme yapan faydalananlara ödeme yapılmaz. Kapitalizmin huylarını reddeder gibi görünen, şaşırtıcı, hatta gizemli buldukları. Bazı Vikipedistler, çabalarının pratikte işe yaramadığını ancak teoride işe yaramadığını belirtiyor.
Vikipedi artık bir ansiklopedi ya da en karşı karşıya sadece bir ansiklopedi değil: Son on yılda tüm dijital dünya bir arada tutan bir tür olgusal ağ haline geldi. Google ve Bing’deki aramalardan veya Siri ve Alexa’dan genel yanıtlar – “Joe Biden kaç yaşında?” veya “Okyanus dalgıç aracı nedir?” – Kısmen Wikipedia’nın bilgi bankalarına alınmış verilerinden türemiştir. YouTube, yanlış bilgileri karşı koymak için Wikipedia’dan da yararlandı.
Yeni yapay zeka sohbet botları, genellikle Wikipedia’nın külliyatını da yuttu. Sorgulara verdikleri yanıtların derinliklerinde, kullanımda bulunan insanlar tarafından çalıştırma amaçlı çalıştırmayla derlenen Wikipedia verisi ve Wikipedia metni yer alır. Etkisine ilişkinler boyutlarıken, Wikipedia muhtemelen AI modellerinin tahmininde eğitiminde en önemli tek kaynaktır. Britanya Kolumbiyası’ndaki Simon Fraser Üniversitesi Fakültesine bu ay katılacak olan ve Wikipedia’nın Google aramalarını ve diğer bilgi işletmelerini desteklemeye nasıl yardımcı olduğunu Nicholas Vincent, “Vikipedi göçmenleri üretken yapay zeka yürütür” diyor.
Yine de, ChatGPT gibi robotlar giderek daha popüler ve algılama hale geldikçe, Vincent ve bazı arkadaşları, kendisini yamyamlaştıran yapay zeka tarafından kuşatılan Vikipedi’nin kullanılmaması ve ihmal edilmesi durumunda ne beklediğini merak ediyor. Böyle bir ölüm, bir “Wikipedia’nın Ölümü” sonucu belki de o kadar da zoraki değildir. Bir bilgisayar zekası – Wikipedia kadar iyi olması gerekmeyebilir, sadece yeterince iyi – web’e kaynakları ve kaynak materyalleri ve haber makalelerini anlık bir alana yerleştiren yakalar, şimdi insanların tartışması ve müzakere ile yaptığı gibi.
Mart sonunda, AI’nın Wikipedia’ya yönelik tehditlerinin yanı sıra potansiyel faydalarına odaklanan bir konferans görüşmesinde, editörlerin umutları endişeleriyle yarıştı. Ortaya çıkan, üretici yapay zeka araçlarının yakında Wikipedia’nın makalelerini ve küresel erişimini genişletmeye yardımcı olacağından emin görünürken, diğerleri, kullanıcıların Vikipedi’den kullandıkları bir giriş yerine hızlı, akıcı, kısıtlama kehanet gibi ChatGPT’yi giderek daha fazla tercih edip etme konusunda rehberlik ediyordu. Editörler arasındaki ana endişeler, Vikipedistlerin kendileri böylesine tehdit edici bir teknolojik müdahaleciye karşı nasıl savunabilecekleriydi. Ve bazılarının, dijital dünyanın kendi gözlemcisinin – özellikle doğruluk ve doğruluk arayışında – hem gerçeklere dayalı güven olarak bilinmez hem de altına kontrol altına alınması zor bir tür istihbarat tarafından tehdit edildiği bir noktaya ulaşıp ulaşmadığından endişeleri vardı.
Konferans görüşmesinden çıkan bir sonuç yeterince açıktı: Bilginin insanlar tarafından üretildiği bir dünya istiyoruz.Ama bunun için çok mu geçildi?
2017’de, Wikimedia Vakfı ve gönüllü topluluğu, ansiklopedinin ve onun ücretsiz bilgi ve görseller sunan Wikidata ve Wikimedia Commons gibi kardeş sitelerinin 2030’a kadar nasıl gelişebileceğini keşfetmeye başladı. Vikipedi’yi denetleyen, geçen bilgilerini sonsuza kadar ele geçirebilir ve paylaşabilir. Bir yıllık toplantıları içeren bu 2017 çabasının bir sonucu, Wikimedia’nın “özgür bilgi mimarisinin temel topluluğu” haline geleceğine dair bir tahmindi; Başka bir sonuç da, çevrim içi yanlış bilgilendirme gibi politikaların sona ermesine çok daha fazla dikkat gerektireceğiydi. Ve vakıf tarafından yaptırılan bir araştırma makalesi, yapay zekanın elde ettiği “toplanma, bir araya gelme ve sentezlenme” şeklini değiştirebilecek bir sonunu ortaya koydu.
Bu nedenle, ChatGPT’nin piyasaya sürülmesinin önerilmesi Vikipedi topluluğu içinde sürprizlere yol açmadı – ancak birkaç editör bana, tahmin 100 milyon kullanıcı kazanmak için 2022’nin sonunda piyasaya sürüldüğünden sonra sadece iki ay tutulması gereken benimsenme hızı karşısında şok etkisi olduğunu söyledi. . Sıkıcı görünümüne rağmen, Vikipedi sıradan kullanıcılarının varsayabileceğinden daha teknoloji meraklısıdır. Milyonlarca makaleyi denetleyecek küçük bir grup gönüllüyle birlikte, genellikle içerdiği olarak son derece depolama editörlerinin yazım hatalarını tespit etmek ve amaçlı olarak yanlış bilgilendirmenin belirli biçimlerini yakalamak için yarı otomatik yazılımları kullanmak uzun süreler gerekliydi. Ve açık kaynak ahlakı nedeniyle, kuruluş zamanının kendi başına uzun ve pahalı bir geliştirme sürecinden geçme yerine teknoloji şirketi veya yöneticileri tarafından ücretsiz olarak verilen özellikler dahil edildi. Wikimedia’nın baş teknoloji sorumlusu Selena Deckelmann, “2017’den beri yapay araçlarımız var ve 2017’den beri makine bilgisayarlarına adanmış bir ekip var” dedi. “Yarı otomatik içerik inceleme ve özellikle çeviriler için son derece değerliler.”
Bununla birlikte, Wikipedia’nın botları kullanım şekli ve botların Wikipedia’yı kullanma şekli son derece farklıdır. Mühendislerin bu amaçla muazzam veri kümelerini oluşturmak için web’i “kazıdıkları” çalıştırma bir parçası olarak, acemi yapay zeka öğeleri sitenin makaleleri üzerinde eğitildiği tarayıcıları açıktı. Bu modellerin ilk bölümü, yaklaşık yıl önce, Wikipedia makinelerini eğitmek için kullanılan kazınmış verileri büyük bir yüzdesini temsil etmekteydi. Ansiklopedi sadece ücretsiz ve erişilebilir olduğu için değil, aynı zamanda gerçeklerin ana damarını içermeyen ve materyallerin büyük bir kısmı içerdiği bir şekilde biçimlendirildiği için çok önemliydi.
Daha yakın yıllarda, Büyük Dil Modelleri veya LLM’ler olarak geçici boyut ve işlevsellik dönemleri – ChatGPT ve Google’s Bard gibi sohbet robotlarına güç veren modellerdir – çok daha büyük yerlerde bilgi toplama toplama. Bazı bölümleri, yemeklerinin toplamı bir şeylerden fazla kelimeye ulaştı. Kaynaklar sadece Wikipedia’yı değil, aynı zamanda Google’ın patent koleksiyonlarını, hükümet belgelerini, Reddit’in Q. ve A. külliyatını, çevrimiçi kitaplıklardan kitapları ve web’deki çok sayıda bulunan haber makalelerini de genel olarak. Ancak Wikipedia’nın toplam hacminin katkısı azalırken – ve hatta teknoloji şirketinin yapay zeka modellerinde hangi veri setlerinin açıklamasını bırakmış olsa da – Allen Enstitüsü’nde bir bilgisayar bilimcisi olan Jesse Dodge, LLMs için en büyük tek geleceği biri olmaya devam ediyor. Seattle’daki AI, bana Wikipedia’nın artık bir LLM’nin eğitimi için kullandığı kazınmış verileri yüzde 3 ila 5’ini oluşturabileceğini söyledi. Dodge, “Vikipedi bundan sonra sonsuza kadar harika bir değere sahip olacak” diye belirtiyor, “çünkü oradaki en iyi değerler en büyük veri setlerinden biri.” Bir modelin eğittiği verilerin kalitesi ile yanıtlarının verdiği ve aldığı arasında genellikle bir bağlantı olduğunu ekliyor.
Bu çıkışı Wikipedia, kurt gibi bir teknoloji pazarının ağzına yoğun bir koyun olarak görülebilir. Acı vericinin iyi niyetle oluşturulmuş ücretsiz bir site (“Bilgiyi yolcuyu götürmesi sonucunda bir eylem nezakettir,” Wikimedia 2017’de stratejik yönüne ayrılmış bir sayfasını belirtmişti), OpenAI olarak hamilelik ücreti almak gibi hedef olan bagaj tarafından yutuluyor. son zamanlarda en son modeli yapmaya başladı – kendi modeliyle dalgayı geçmeyin. Ancak açıklamalar kullanımlarından daha karmaşıktır. Vikipedi’nin temel amacı, yazmak mümkün olduğu kadar geniş ve özgür bir şekilde, her ne şekilde olursa olsun yaymaktır. Yaklaşık 10 yıl önce, site yapıları Google’ın Wikipedia’yı nasıl kullandığına odaklandığında, yapay sohbet robotlarının gelişiminin ölçüsünde haber veren bir durumdaydılar. Google’ın arama motoru, sorgu sonuçlarının başında Vikipedistlerin çalışmalarının dünyanın her yerindeki gizli sunmayı başardı ve ansiklopediye eskisinden çok daha fazla erişim sağladı – bariz bir erdem. 2017’de üç akademik bilim bilgisayarı, Connor McMahon, Isaac Johnson ve Brent Hecht, Wikipedia tarafından Google’ın arama sonuçlarında yapılan katkıların yalnızca bir kısmı kaldırılırsa rastgele kullanıcıların nasıl tepki verme testi yapan bir deney gerçekleştirdi. Akademisyenler “kapsamlı bir sınırsız” algıladılar: Wikipedia, Google’ı birçok sorgu için “önemli ölçüde daha iyi” bir arama motoru haline getiriyor ve buna karşılık Wikipedia yayınlarının kapsamını Google’dan alıyor.
Google ve Vikipedi’nin yapıları başka amaçlarla kullanan diğer kişilerle çarpışmanın bir sonucu, iki yıl önce, Wikipedia makalelerine hızlandırılmış güncellemeler sağlayan bir dizi uygulama programlama arayüzüne erişim şeytan ayrı bir iş birimi olan Wikimedia Enterprise’ın kuruluşuydu. Kime sorduğunuza bağlı olarak, işletme birimi ya teknolojisinin büyük hayırsever bağışların benzerini Wikipedia’ya yönlendirme için daha resmi bir yol – Google artık abone oluyor ve birim 2022’de toplam 3,1 milyon dolar aldı – ya da Wikipedia’nın dijital dünya için yarattığı Finansal değerin bir kısmını geri kazanmak ve böylece yürütme operasyonlarının finansmanına yardımcı olmak. Pratik olarak, Wikipedia’nın açıklığı herhangi bir teknoloji şirketi Wikipedia’ya herhangi bir zamanda kaybolmasına izin verir, ancak API’ler yeni Wikipedia girişlerini neredeyse anında okunabilir hale getirir. Bu, zaten oldukça hızlı olan bir görüşme. Wikipedia’da koleksiyonları hakkında veri ortaya koymak için müzelerle çalışan bir danışman olan Andrew Lih, bana 2019’da Vera Simons adlı öncü bir baloncu hakkında yeni bir Wikipedia makalesinin ortaya çıkmasının ne kadar süreceğini keşfetmek için bir deney yaptığını söyledi. Google Arama sonuçlarında. Geçen sürenin yaklaşık 15 dakikasını buldu.
Yine de, arama motorları ve Wikipedia arasındaki yakın ilişki, ikinci için bazı varoluşsal soruları gündeme getirdi. Google’a “Rusya-Ukrayna Savaşı nedir?” ve Wikipedia, materyallerinin bir kısmı kısaca özetlenerek kredilendirildi. Ancak bu, Wikipedia’nın yaklaşık 10.000 kelimelik ve 400’den fazla dipnot içeren makalesini ziyaret etme olasılığını azaltsa ne olur? Bazı Vikipedi editörlerinin bakış açısına göre, azalan trafiği dünyayı anlamamızı aşırı derecede basitleştirecek ve yeni nesil faydalanma içinde bulunanları işe almayı zorlaştıracaktır. Ayrıca daha az bağış karşılığı da alınabilir. 2017 tarihli belgeler, Wikipedia’ya yapılan ziyaretlerin gerçekten de azalmaya devam edeceğini belirtti. Ve tespit ettikleri fenomen “yeniden kullanım paradoksu” olarak bilinmeye başlandı: Wikipedia’nın makaleleri diğer mecralar ve medya aracılığıyla ne kadar çok amaçlarsa, Wikipedia’nın kendi sağlığı o kadar riske girdi.
Yapay zeka ile, bu yeniden kullanım sorunu çok daha yaygın hale getirmekle tehdit ediyor. Birkaç yıldır Wikimedia Foundation’da makine çalıştırmayı araştırma ekibini yöneten (ve şu anda Microsoft için çalışan) Aaron Halfaker, arama motoru özetlerinin en çok tüketilen kısımlarını ve alıntılar ve Wikipedia’ya geri dönmesinin bir yolunu kurtardığını söyledi. Büyük dil modellerinden gelen yanıtlar, kolay giden ancak gizemli içerikler içeren bir bilgi smoothie’sine benzeyebilir. “Yanıt üretme gücü temelden değişti” diyor ve bir ChatGPT yanıtında “buranın nereden geldiğine ilişkin literatürde tam anlamıyla hiçbir alıntı ve temel eksikliğini” belirtiyor. Bunu Google veya Bing arama motorlarıyla karşılaştırıyor: “Bu farklı. Bu, daha önce sahip olduklarımızdan çok daha güçlü.”
Neredeyse kesinlikle, bu, AI’yı en kısa sürede Wikipedia’nın bakış açısıyla hem mücadele etmeyi daha zor hem de potansiyel olarak daha zararlı hale getiriyor. Yapay zeka barındıran çalışan (ancak çalışmalar hakkında kamuya açık konuşmaya izin verilmeyen) bir bilgisayar bilimcisi bana, bu teknolojilerin eğitim için bağımlı oldukları içeriği yok etmekle tehdit eden son derece kendi kendini yok ettiğini söyledi. Sadece teknolojiyi çevreleyenn bazı da dahil olmak üzere pek çok insan sonuçlarından kararlı bir şekilde varmadı.
Kredi… Erik Carter’ın çizimi
Wikipedia’nın tr sadık destekçiler, pek çok kusuru kolayca kabul edeceklerdir. Wikimedia Vakfı, İngilizce sitesinde yaklaşık 40.000 aktif editör olduğunu tahmin ediyor – bu, ansiklopedide ayda en az beş düzenleme yaptıkları anlamlandırılıyor. Wikimedia Vakfı’ndan alınan son verilere göre, bu grubun yaklaşık yüzde 80’i erkek ve Amerika Birleşik resim’lerindekilerin yaklaşık yüzde 75’i beyazdır, bu da Wikipedia’nın kapsamında bazı cinsiyet ve ırksal yokluklara yol açmıştır. Ve algılamayla ilgili sürekli şüpheler devam ediyor. Georgia Institute of Technology’de profesör olan Amy Bruckman, binlerce kişinin yararlanabileceği popüler bir makale için, “Wikipedia’yı tam anlamıyla kullanarak, insanlar tarafından barındırılana kadar oluşturulmuş en doğru bilgi biçimidir” dedi. Ancak Wikipedia’nın kısa makaleleri bazen isabet alabilir veya gözden geçirilebilir. Son zamanlarda yayınlanan “Wikipedia’ya İnanmalı Mısınız?” kitabının yazarı Bruckman, “Tam bir çöp olabilirler” diyor. Nadiren ziyaret edilen bir sayfada hatalı bir gerçek, aylarca veya çalıştırma yürütülmesi. Ve her zaman var olan vandalizm veya bir makaleyi kurcalama tehdidi var olmaya devam ediyor. Günlük 2017’de Meclis Başkanı Paul Ryan’ın bir fotoğrafı omurgasızlarla ilgili girişe eklendi. İlk adı Jade olan bir Wikipedia editörünün bana söylediği gibi: “Spam oluşturma, vandalizm yaratmaya, insanları taciz etmeye neredeyse benim ayırdığım kadar zaman ayırması gereken bir dizi neredeyse profesyonel trolümüz var gözlemlerimiz.” Vikipedi’yi geliştirmek için.”
Bazı incelemeler bana, Wikipedia’nın eksiklikleri ne olursa olsun, ansiklopediyi bir “ortak görüş birliği gerçeği” olarak gördüklerini söyledi: İçlerinden birinin ifadesiyle: Gerçeklerin giderek daha fazla tartışıldığı bir içeriği bir gerçeklik kontrol işlevini görür. Bu gerçek, veri noktaları hakkında daha az – “Joe Biden yaşında kaç?” – Gerçeklerin sürekli bilgisayarları, bilgisayarların çarpıtıldığı ve hararetle tartışıldığı Covid-19 salgını gibi karmaşık olaylar hakkında. Doğruluk değerleri, Wikipedia’nın şeffaflığı sayesinde artıyor. Wikipedia girişlerinin çoğu dipnotları, kaynak materyalleri bağlantıları ve önceki düzenlemelerin ve editörlerin listelerini içerir – ve depolama editörleri, bir makale eksik kullanımlarında veya Vikipedistlerin “doğrulanabilirlik” diyen şeylerden yoksun olduğunda müdahale etmeye isteklidir. Vikipedi değerlendirmeleri, editörlerinin bir “NPOV” – uzaklaştırma bir bakış açısı – sürdürme veya reddedilme (veya wiki kültürünün argotunda “geri alınma”) riskini alma konusunda ısrar ediyor. Ve sitenin kendi kendini incelemesi var. Wikipedia’da, Wikipedia’nın kendi güvenilirliğini araştıran uzun incelemeler bulabilirsiniz. Wikipedia’nın aldatmacalara nasıl kurban gittiğine dair bir giriş, 60’tan fazla basılı sayfaya kadar uzanıyor.
Gerçeğin peşinde koşmak Vikipedistler için ne kadar zor olsa da yapay zeka sohbet robotları için çok daha zor görünüyor. ChatGPT, “halüsinasyonlar” olarak bilinen varsayım veri noktaları veya yanlış alıntılar oluşturmasıyla kötü bir üne kavuşmuştur; belki de sinsi olanlar, örneğin Ukrayna-Rusya savaşının kökenleri gibi, robot karmaşık ortamların aşırı basitleştirilmesidir. Tıbbi teşhis ve tedavilerle ilgili makaleleri yoğun bir şekilde ziyaret edilen Wikipedia’daki üretici yapay zeka hakkında bir endişe, sağlık bilgileriyle bağlantılı. Mart konferansının bir özeti özetliyor: “Bu yaptıkları ellerinin hayatlarını ortaya koyuyoruz – örnek, insanlar bu teknolojiden bakım tavsiyesi, bu yanlış olabilir ve insanlar ölecektir.”
Bu anlayış yalnızca sohbet robotlarını değil, yapay zeka teknolojilerine bağlı yeni arama motorlarını da kapsıyor. Nisan ayında Stanford Üniversitesi adam bilimlerinden oluşan bir ekip, yapay zeka tarafından konumlandırılan dört motor (Bing Chat, NeevaAI, perplexity.ai ve YouChat) değerlendirdi ve arama motorları tarafından bir sorguya yanıt olarak ortaya çıkan cümlelerin yalnızca kendisinden tam olarak desteklenebileceğini buldu. olgusal alıntılarla. araştırmacıları, ” ayrıntılı veri görünümleri göz önüne çıkanlar, bu sonuçlardan bilgi arayan kullanıcılar için birincil araç olarak hizmet güvenlik sistemleri için endişe verici değerleri düşük bilinen inanç.”
Doğruluk hedefini sohbet robotları için bu kadar can sıkıcı yapan şey, bir cümledeki bir sonraki kelimeyi ölçmek için araştırmasal olarak çalışmalardır; karanlık bir dünyada gerçeğin ışığını çalışmıyorlar. Jesse Dodge, “Bu modeller, duyduğu bir kişinin söyleyeceği bir şey gibi metinler oluşturmak için inşa edilmiş – kilit nokta bu” diyor. “Yani kesinlikle doğruyu söylemek için inşa edilmediler.” Google’da yapay zeka etiği üzerine çalışan bir bilgisayar bilimcisi olan Margaret Mitchell’e, işin yönünü eleştirdikten sonra şirketten kovulduğunu söyleyen AI Mitchell için olgusallığın daha temel bir değerlendirme olup olmadığını sordum (Google, şirket güvenlik politikalarını yaymak için kovuldu), kişinin çoğu bunu kavuşacağımızı söyledi. “Şu sağduyulu şey – ‘Eğer onlara gerçek temelli uygulamalar için bir süre devam ediyorsa, onu eski haline getirmek için çalışmamız gerekmez mi?’ — yani, bence teknolojiyle ilgilenmeyen çoğu insan için ‘Bu neden bir soru?’ donanım yerine yapay zeka ürünlerini tanıtın.
Gelecekte yol neredeyse kesinlikle resimlere yol açacaktır. Mitchell, yapay zekanın daha iyi veri kullanarak doğrulukta kazanç elde etme ve önyargılı yanıtları azaltacağını öngördüğünü söyledi. “Arka’nın alacağı kadarki durumu, sadece bırakınız yapsınlar veri yaklaşımıydı” dedi. Jesse Dodge, “geri alma” olarak bilinen bir fikre işaret ediyor. ; burada bir sohbet robotu, bir kilise gerçek zamanlı olarak denetlemek için esasen web’deki yüksek kaliteli bir kaynağa danışacaktır. Problemini çözmenin bir yolu olduğunu düşünüyorum.” Aksi takdirde, bir chatbot incelemesinin Wikipedia veya Encyclopaedia Britannica ile olgusal özgürlüğü kazanabileceğinden şüphe duyacağını söylüyor.
Pazar rekabeti de hızlı işlemlere yardımcı olabilir. California, Berkeley’de kâr amacı gütmeyen bir kuruluşta yapay zeka maliyeti doğruluğu üzerine çalışan bir araştırmacı olan Owain Evans, bana OpenAI’nin artık işletmelerinle birkaç ortaklığı ve bu yaygın yanıtların yüksek bir doğruluk düzeyine hakimiyeti konusunda büyük ölçüde sapacağını belirtti. Bu arada Google, hastalık tespiti ve danışma konusunda tıp uzmanlarıyla yakın çalışmak için yapay zeka sistemleri geliştiriyor. “Orada çok yüksek bir çıta olacak” diye ekliyor, “bu aygıtları gerçekten görebilmesi için teşvikler olduğunu düşünüyorum.”
Yapay zeka şirketini en kısa sürede, gerçekliğe gelince “ince ayar” dedikleri şeye odaklanıyorlar. ChatGPT’yi oluşturan şirket olan OpenAI’de araştırmacı olan Sandhini Agarwal ve Girish Sastry, yeni yapay zeka modelleri olan GPT-4’ün “gerçek içerik” olarak adlandırdıkları hakkında önceki modellere göre önemli gelişmeler kaydettiğini söylediler. Bu ilerlemeler, yapay zeka modellerinin iyi ve kötü yanıtlarını ayırt etmeye yardımcı olmak için “insan geri bildirimiyle pekiştirmeli öğrenme” olarak bilinen bir süreçten yürütür. Ancak ChatGPT’nin hem halüsinasyonları düzeltiyor hem de geçmişteki karmaşık, çok sesli ve doğru yanıtları sağlamak için gereken katlamayı bir yol olduğu açıklıyor. Agarwal’a OpenAI parçaları tamamen doğru olup olmayacağını veya 400 dipnot sunup sunamayacağında, bunun mümkün olduğunu söyledi. Ancak bir modelin gerçeklere dayalı olma hırsı ile yaratıcı ve akıcı olma çabaları arasında her zaman bir gerilim olabilir. Bir yapay zeka geliştiricisi olarak, amacının bir sohbet modelinin üzerinde bilgili olduğu doğruları “kusmak” olmadığını açıkladı. Bunun yerine, kullanıcılarınla tutabileceği bilgi kalplerini taze, konuşma dilinden anlamak.
Sastry, katmanlar yapay zeka nesneleri bir sorgunun kesin olgusal bir yanıt mı yoksa daha yaratıcı bir şey mi yöneticini yorumlayabileceğini ekliyor. Başka bir açıklama, alıntılar ve ayrıntılı nitelikler içeren bir analitik rapor istemek, yapay zekayı sunması gerektiğini bilir. Ve eğer Donald Trump’ın iddianamesi hakkında bir sone istiyorsa, bunun yerine onu kesebilir.
Haziran sonunda, Wikimedia Foundation’ın ChatGPT için oluşturduğu bir eklentiyi denemeye başladı. Zaman zaman, bu yazılım aracı birkaç düzine Wikipedia yöneticisi ve vakıf personeli tarafından test ediliyordu, ancak ChatGPT sorgularına genişletilmiş yanıtlar isteyenler aboneler için Temmuz ayında OpenAI web üzerinden kullanıma sunuldu. Etki, Jesse Dodge’un doğru yanıtlarından elde etmek için gerekli olabileceğini tahmin ettiğini “geri alma” maliyetine benzer. GPT-4’ün bilgi tabanı, şu anda Eylül 2021’de eğitim bitiş bitiş tarihine kadar alındığıyla ilgili olarak geçerli. Bir Wikipedia eklentisi, botun bugüne kadarki olaylarla ilgili bilgileri elde etmeye yardımcı olur. En depolama teorisinde, araç – bir sohbet robotu sorgusunu yanıtlayan Wikipedia makaleleri için bir aramayı yönlendiren kod satırları – listelenen gelişmiş, birleştirici bir deneyim sunuyor: bir AI sohbet robotunun akıcılığı ve dil sistemleri, Wikipedia’nın gerçekleri ve geçerliliği ile birleştirildi .
Bir kayıttan sonra, Wikimedia Vakfı’nda makine bilgisayarlarından sorumlu olan Chris Albon, beni hızlı bir eğitim seansına götürdü. Albon, ChatGPT’ye OceanGate şirketi tarafından kanatları ve Titanik’in sızıntısını ziyaret etme girişimi sırasında nerede olduğu hala bilinmeyen Titan denizaltısını gönderdi. Albon, “Normalde ‘Bilgi kesintim 2021’den’ gibi bir yanıt verecek” dedi. Ancak bu durumda ChatGPT, Albon’un sorusuna cevap veremeyeceğini fark ederek — OceanGate’in denizaltısına ne oldu? — eklentileri Wikipedia’da (ve yalnızca Wikipedia’da) soruyla ilgili metin yönlendirildi. Açıklama, ilgili Wikipedia makalelerini bulduğutan sonra bunları bot’a gönderdi, o da bunları okudu ve konuşmadı, ardından yanıtını yüzüne baktı. Yalnızca küçük bir gecikmeyle yanıtlar geri geldiğinde, eklentinin kullanımının ChatGPT’yi her zaman bir eklemeye zorladığı ve bilgilerinin “tarafından yapılan” Wikipedia’dan türetildiğini içeren Wikipedia girişlerine bağlantılar içeren açıktı. gönüllüler.” Ve şu: “Geniş bir dil modeli olarak Wikipedia’yı doğru bir şekilde kuralsız olabilirim.”
Ancak denizaltıyla ilgili özet, beni okunabilir, iyi desteklenmiş ve güncel olarak yükselterek – ya gerçekleri karıştıran ya da internete gerçek zamandan erişiminden yoksun olan bir ChatGPT yanıtından büyük bir gelişme. Albon bana şöyle dedi: “Bu, ‘Vikipedi’nin web sayfasının dışında var olması neyden geliyor’ fikriyle bir tür deney yaptığımızın bir yolu, böylece aslında Wikipedia’da bulunmadan Wikipedia’yla gerçekten ilgilenebilirsiniz. com. İleride, eklentinin şu anda olduğu gibi, onu arayan kullanıcılar tarafından kullanılabilir olmaya devam etmesi gerektiğini, ancak “sonunda, her zaman açık olan belirli bir bağlantı seti olduğunu” söyledi.
Başka bir ifade, herhangi bir ChatGPT sorgusunun otomatik olarak sohbet robotlarının Wikipedia ile gerçekleri kontrol etmesi ve faydalı makalelerden alıntı yapmasıyla sonuçlanacağını umuyordu. Böyle bir süreç muhtemelen birçok halüsinasyonu da engelleyecek: Örneğin, sohbet robotları bir sorgulamanın nasıl ifade edildiğine göre aldatıldığından, yanlış öncüller bazen yanlış cevaplar doğurabilir. Ya da Albon’un dediği gibi, “‘Ay’a ilk iniş sırasında, aya ayak basan beş kişi kimdi?’ chatbot size beş isim vermek istiyor.” Ancak 1969’da aya sadece iki kişi ayak bastı.Wikipedia, Buzz Aldrin ve Neil Armstrong adlı iki adı sunarak yardımcı olacaktır;
Açıklama, ChatGPT’nin yaratıcı olmasına izin verir, ancak bunu sınırlı olarak yapar. Hafta, OceanGate dalgıçıyla ilgili sorularda, beş yolcunun ölüm de dahil olmak üzere sonraki gidişatın nasıl geçtiğine dair üç paragraflık bir özet aldı. Sonra cevap beş madde halinde cümlelere davet etmek istedim, o da bunu anında yaptı. Daha sonra, 7 veya 8 yaşındaki bir çocuğu anlayabilmesi için bu beş maddeyi uyarabilir miyim diye sordu. ChatGPT anında “İşte daha basit bir versiyon” dedi ve tam da benim istediğim şeyi teklif etti ve Titan’ın “özel bir su altı aracı” olduğunu ve patlamasının “üzücü bir olay” olduğunu belirtti.
Mükemmel değildi. ChatGPT’ye, OceanGate’in genel müdürü Stockton Rush’ın güvenlik standartlarını göz ardı ettiği için nasıl eleştirildiğini gözden kaçırdığını söyledi. “Geçerli bir noktaya değindin,” diye cevap verdi. “İşte endişelerinizi gideren gözden geçirilmiş bir bölüm.” Düzeltilmesi yalnızca birkaç saniye sürdü.
Vikipedi topluluğu içinde, yapay zekanın doğru yönetildiğini gösterirse, gözlemlerinden çökmelerinden bazılarında yardımcı görevlilere ilişkin temkinli bir umut duygusu var. Baş teknoloji sorumlusu Selena Deckelmann, bu bakış açısını en iyimser şekilde ifade ediyor. “22 yılı aşkın bir evliliğimizi kanıtladığımız şey şu: Sürdürülebilir bir gönüllü modelimiz var” dedi bana. “Bunun için bazı tehditler savunması. Asılmaz bir tehdit mi? Öyle yaşamış.” “Wikipedia’nın Ölümü”nü yazan uzun süredir Wikipedia’nın bir kitabı bana, daha uzun vadeli çok daha az kesin görünse bile, gelecek yıllarda iyi bir sonuç için yapılması gereken bir durum yaşadığını söyledi. Wikimedia eklentisi, sonraki geleceğe yönelik ilk önemli adımdır.AI’daki son gelişimi dahili olarak kullanmak için projeleri de çalışıyor. Odak noktalarından biri, AI modellerinin yeni gönüllülere, yeni makaleler üzerinde çalışmaya başladıklarında adım adım sohbet robotu talimatlarıyla yardım süresinin sona ermesi;
Wikimedia Vakfı’nın araştırma başkanı Leila Zia, ekibinin de benzer şekilde, örneğin yeni bir makalenin veya düzenlemenin geçersiz kılınıp reddedilmeyeceğini tahmin ederek ansiklopediye yardımcı olabilecek araçlar üzerinde kullandıklarını söyledi. Veya, dedi, belki de bir paylaşım bulunan kişi “alıntıları nasıl kullanacağını bilmiyor” – bu durumda, başka bir araç olduğunu belirtirdi. Vikipedi sistemlerinin yazarken yanından bir bakış açısını korumalarına yardımcı olup olmayacaktı. “Kesinlikle” diyor.
Şu an için, Wikipedia topluluğu kurallarını ve politikasını tartışırken, İngilizce Vikipedi’de tamamen LLM’ler tarafından yazılan makale gönderimleri büyük ölçüde önerilmez. Yine de yapay zeka ile ilgili bir tür John Henry sorunu var. Sohbet robotları, insan benzerlerinden farklı olarak, dili 7/24 buharla çalışan bir makine gibi yayma konusunda mükemmel bir yeteneğe sahip. Chris Albon, “İnternetin her pislikle dolduracağından şüpheleniyorum” dedi. Yapay zeka modellerinin insanların yazma stillerini taklit etmede daha iyi hale gelmesiyle birlikte, chatbot tarafından yazılan gönderileri tespit etmek giderek daha zor olabilir. İlk adı Theo olan bir Vikipedi dizisi, Haziran ayı başında bana, Yunanistan’daki Doxa Gölü hakkında bir makale de dahil olmak üzere, AI tarafından formüle edilen şüpheli alıntıları içeren bir düzenleme barajını nasıl savuşturduğunu göstermek için bana bileşenleri gönderdi.
Çoğu zaman, Theo ve diğer Vikipedistlerin, zaten sınırları zorlanmış olan yeni içerik ve alıntıları inceleme konusundaki insani becerilerin, sonraki yapay zeka tarafından bir metin çığıyla boğulacağından endişeleri hissine kapıldım. Elbette, onların yapay zeka olan yeni araçlar yardımcı olacaktır. Ancak editörler kısa vadede kazansa bile, merak etmemelisiniz: Sonunda makineler kazanamayacak mı?
Üç yıl önce, Northeastern Üniversitesi’nde profesör olan Joseph Reagle, Wikipedia’nın 20. yıl dönümü beklentisiyle, sitenin düşüşün nasıl tekrar tekrar tahmin edildiğini araştıran tarihi bir makale yazdı. Wikipedia yine de uyum sağlamanın ve dayanmanın topluluklarını bulmuştur. Reagle, Yapay Zeka Kullanımı Son Korumaların Ona Vikipedi’nin Güvenliğin Diğer Ansiklopedilerle Karşılaştırıldığında Kötü Amaçlı Bir Şekilde Olduğu İlk Günlerini Hatırlattığını Söyledi. “Bilgi ve bilgi, kalite, görev ve meşruiyet gerçekleştirmek bu daha büyük kültür kontrolünde bir vekil görevini gördü. Bu nedenle, gelişecek olan ChatGPT hakkında düşünmeye benzer bir model oluşturuyorum. Wikipedia’nın mükemmel olmadığı gibi bölümler, onun mükemmel değil – asla mükemmel olmayacak – ama orada bulunan diğer bilgiler göz önünden geçenlere değer nedir? Gördüğü şekliyle gelecek, ChatGPT’den Wikipedia’ya, Reddit’ten TikTok’a kadar her şey dahil olmak üzere bir dizi bilgi seçeneği olacak. Bu arada özel bir eklenti, sohbet robotlarının sağlık, hava durumu veya tarih gibi gördükleri yanıtları iyileştirebilir.
Şu anda yapay zekaya karşı bahse girmeye alışılmışın üzerinde ortaya çıkan Yeni teknolojilere milyarlarca bahse giren ve eksikliklerinden veya risklerinden büyük ölçüde yılmayan büyük teknoloji işletmeciliği, ellerinden elde edilmesi hızlı ilerlemeye yönelik görünüyor. Bu dinamikler, Wikipedia gibi örnekler, AI üzerinde etkide bulunmak veya ona karşı etkili bir direniş geliştirmek yerine, AI’nın varmaya varmadığı geleceğe uyum sağlamakta zorlanacağını gösteriyor. Yine de konuşmam birçok Vikipedist ve araştırmacı böyle bir düşünceyi sorguluyor. Sohbet robotları ne kadar etkileyici olursa olsun, yapay zekanın ilerleyen görünürdeki süzülme yolu yakında bir dizi engellenebilecek.
Bunların toplumsal olabileceği gibi teknik de olabilir. Avrupa Birliği kurumu şu anda, diğer şeyler yanı sıra, teknoloji şirketlerini yapay zeka tarafından üretilen içerikleri yerlerine ve yapay zeka eğitim verileri hakkında daha fazla bilgi ifşa etmeye zorlayacak yeni bir çerçeveyi çerçeveleyen düşünüyor. Kongre bu arada Al Meşru’yu düzenlemek için birkaç yasa yapısını değerlendiriyor, inceleme de geliyor olabilir. Yakında izlenen bir davada, Stability AI, Getty Images’den alınan resimleri izinsiz kullanmaktan dolayı sorgulanıyor; California’daki bir toplu dava, OpenAI’yi milyonlarca insanın internetten kazınmış kişisel kontrolünü çalmakla çalıştırıyor. Vikipedi’nin lisanslama politikası, herkesin bilgisine ve anlayışına dokunmamasına – onu nasıl isterse “yeniden kullanmaya ve yeniden düzenlemesine” izin ver ayet de, bunun için birkaç kitap vardır. Bunlar, kullanıcıların “benzer şekilde paylaşımları” gerekliliklerini içerir, yani bir şey yaptıkları herhangi bir bilgiyi daha sonra hazır hale getirmelidir ve kullanıcılar Wikipedia’ya katkıda bulunanlara sahip olmalıdır. Açık kaynak yazılım kuruluşundan iki kişi bana, Wikipedia’nın külliyatını, kaynağın sorgulara yanıt veren bir sohbet robotu modelinde karışımının Wikipedia’nın kullanım şartlarını uygulayabileceğini söyledi. Bazı kanuni başvuruların olup olmadığı artık Wikimedia topluluğu içinde bir konuşmadır.
Veri sağlayıcılar başka tür kaldıraçlar da kullanırlar. Nisan ayında Reddit, külliyatını büyük teknoloji şirketi tarafından tazminat ödemeden hurdaya çıkarmayacağını duyurdu. Wikimedia Vakfı’nın aynı hükmü yayınlayıp sitelerini kapatması pek olası olduğunu – Nicholas Vincent’ın “veri grevi” olarak adlandırdığı bir eylem – çünkü hizmet şartları daha açık. Ancak vakıf, adalet adına tartışmalar yapabilir ve firmalara, danışmanlara Google’ın şu anda yaptığı gibi, API’si için ıslah çalışmalarında bulunabilir. Selena Deckelmann’ın vakıf firmalarının çeşitlila tartıştığını söylediği gibi, sohbet robotlarının Wikipedia’ya belirgin bir atıf vermesi ve yanıtlarında önermeler yapması konusunda daha fazla ısrar edebilir. Vincent, yapay zeka sistemlerinin bireysel yüklenicilerle kendilerinin bir küresel ansiklopedi oluşturmayı kullanarak çılgınlık hedeflerini söylüyor. Bunun yerine bana, “Burada Wikipedia’nın ‘Hey, senin için ne kadar önemli olduğumuza bir bak’ dediği bir ara aşama olabilir” dedi.
Böyle bir rica, chatbotların bizim davranışların da etkili bir hatırlatıcısı olabilir. Büyüyen milyonlarca Vikipedi haritası sindirmeden veya Reddit’te “The Bear”daki olay örgüsüyle ilgili tartışmaları süpürmeden, yeni LLM’ler yeterince okuyamaz. Aslında, teknoloji camiasında görüşmem hiç kimse, Wikipedia olmadan iyi bir yapay zeka modeli oluşturmanın mümkün olup olamayacağını bilemiyor.
Teknolojinin sahip olduğu tüm sınırlamalara varmayı ortadan kaldırmaları için ailede bir ölümün yönünü gerektirebilir. Yapay zeka savunan çalışan bilgisayar bilimcisine göre, bazı teknoloji uzmanları, yeni yapay zekaların, modellerin sorduğu soruları yanıtlamak için eğitildiği popüler bir platform olan Stack Overflow adlı programcılar için bir web ziyareti tehdidini attığından endişe ediyor. Sorunun iki farklı yönü var gibi görünüyor. Kodlama sorgusu olanlar yardım için ChatGPT’ye gidebiliyorsa, neden Stack Overflow’a gitmeli? Bu arada, cevaplar için Stack Overflow’a göre daha az kişi varsa, neden orada yararlı öneriler veya içgörüler göndermeye devam edesiniz?
Bunun gibi çatışmalar AI’nın ilerlemesini engellemese bile, başka şekilde engellenebilir. Mayıs sonunda, birkaç AI araştırmacısı, yeni AI yapıları insan tarafından üretilen veritabanları yerine mevcut AI modelleri tarafından üretilen bilgilerden geliştirilip geliştirilemeyeceği bir makale üzerinde iş birliği yaptı. Sistemik bir arıza keşfettiler – “model verileriniü” olarak adlandırdıkları bir arıza. Yazarlar, AI’ların yeni sürümlerini eğitmek için bir AI’dan veri kullanımının kaosa yol açtığını gördüler. Sentetik veri, diye yazdılar, “gelecek nesil modellerin eğitim setini kirletiyor; kirli içerikle öğrendiklerinden, gerçek yanlışlar algılar.”
öğretici dersler, eski modellerden yeni modeller oluşturmanın zor olacağıdır. Oxford Üniversitesi araştırmacısı ve makalenin başyazarı olan Ilia Shumailov, chatbot’larla ilgili olarak aşağı yönlü sarmalın benzer anlatımlarını anlattı. Üzerinde çalışılacak insan verisi olmadan Shumailov, “Dil modelinizin ondan çizimini istediğiniz kesinlikle tamamen habersiz olmaya başlıyor ve sanki bu çılgın moda girmiş gibi, istenen şey hakkında daireler çizerek sona ermeye başlıyor.” Diyelim ki Wikipedia’dan bir eklenti bu sorunu ortadan kaldırmaz mı, diye sordu. Olabilir, dedi Shumailov. Yalnızca kullanım Vikipedi, yapay zeka tarafından üretilen makalelerle tıkanırsa, aynı döngü – esasen bilgisayar kendi oluşturduğu içeriği besleyecek – devam ettirecek.
Nihayetinde çalışmada, “gerçek insan etkileşimlerinden” elde edilen ipuçlarından yola çıkarak LLM’ler için giderek daha değerli olacakları vardı. bu arada, onları dürüst ve çalışıyor durumda ve bize bağımlı halde tutmak için. Bir AI sistemi insanlığın çıkarlarına en uygun olduğundan emin olmak, hizalama olarak bilinen teknolojik bir konsept içerir. Hizalama, yapay için zeka hem muazzam bir karmaşıklık hem de muazzam bir özellik olarak görülüyor çünkü tamamen senkronize olmayan bir sistem korkunç bir hasara neden olabilir. Yapay zeka, güvenilir bir ücretsiz bilgi sistemi mahveder veya tehlike atarsa, bunun için bizim çıkarlarımıza ne kadar uygun olduğunu görmek zor. Aaron Halfaker, “İnsanların ilkelerini yürütmeyle ilgili gerçekten çok şeyden biri, varsayılan olarak bir tür temel hizalama düzeyini elde etmenizdir” dedi. “Ve Vikipedi editörlerinin insan olduğu, insani motivasyonları ve kaygıları olduğu ve motivasyonlarının isteklerine uygun yüksek kaliteli eğitim materyallerini elde etmesinin takdirine varılması, o zaman esasen sisteme güvenebilirsiniz.”
Hayatlarını bu düşünce adamış insanlar konuşmanızda uyum davranışlarını daha iyi kavrayabilirsiniz. Kredisinde 24.000’den fazla düzenleme bulunan Jade’e boş zamanını – genellikle haftada 10 ila 20 saat – neden Vikipedi’yi düzenleyerek yaptırdığını sorduğumda, bilgi aktarımına inandığını söyledi. “Ayrıca, ben koca bir ineğim” dedi. Akşamı geçen Zoom üzerinden konuşurkenduk ve ChatGPT ile ilgili diğer uzun diyalog akşamlarına çok az benzeyen bir sohbetti. Jade’in çalışmalarından bazıları, son 12 ayda yaklaşık 21.000 sayfa görüntüleme alanı kırmızı sinekkapan üzerine yazdığı bir yazı gibi, doğaya ve kuşlara olan kişisel ilgilerinden alıyordu. Ayrıca, aynı dönemde 4,84 milyon kez izlenen Amerikan İç Savaşı Doğum Günü Wikipedia kapısı üzerinde muhafaza edildiğini söyledi. Amaç, bu İç Savaş makalesinde eksiksizlik ve daha fazla doğruluk için çalışmaya devam etmek ve böylece makalenin Wikipedia’da “öne çıkan” statüsüne durumuydu; bu, bir makalenin sertifikasının Vikipedi editörleri tarafından yaklaşık olarak ödüllendirilen en düşük bir değerdir (genellikle bir yıldızla işaretlenir). İngilizce girişlerin yüzdesi 0,1’i. Jade, “Geçmişteki hesaplamalarım, alabileceğim, çalışmalarımı bir yılda 10 milyondan fazla insan okudu,” dedi, “bu yüzden bu insanların tüm bunları okuması benim için bir onur.
Wikipedia makalelerini oluşturmak için yapay zeka kullanımının etiği hakkında “Süreçler oluşturmamızı sağlamaya yönelik, zorlu konuşmalar yapmaya çalışıyoruz” dedi. Ona sohbet robotlarının gönüllü çalışma fırsatlarını ortadan kaldırmayı kaldıramayacağını sorduğumda, “Hiçbir zaman – belki asla değil, ama kesinlikle bu yüzyıldaki robotların Wikipedia’da tamamen kullanıcıların yerini aldığını görüyorum” diye yanıtladı.
Ben mühlet gibi değildim. Bir chatbot konuşmasının cazibesi, gerçeklere dayalı eksikliklerine rağmen, milyonlarca insan için aşırı karşı konulamaz ve sahip olamaz. Aslında, ChatGPT ile çalıştırmam saatler boyunca kendi tarafsız bakış açımla uçup gitti – bilgi alışverişi çok titiz ve ayrıntılı olduğu için değil (değildi), etkileşim çok karmaşık ve zahmetsiz olduğu için. Yine de Jade kalecisiydi. “Ben bir iyimserim” dedi.
Jon Gertner 2003’ten beri bilim dergisi için ve teknoloji hakkında yazıyor. En son evrende akıllı yaşam aramanın yeni yolları hakkında yazmıştı. Erik Carter New York’ta bir grafik süsleyici ve arka direktördür. Çalışmaları genellikle bir internet yayılımını canlandırıyor ve mizahi yan yana koymak için medyayı karıştırıyor.