ChatGPT kötü kullanıma açık mı?

Geçtiğimiz birkaç aydır internet erişimi olmayan uzak bir yerde geri çekilmediğiniz sürece, OpenAI tarafından geliştirilen yapay zeka (AI) sohbet robotu chatgpt’nin etrafında ne kadar yutturmaca ve korku olduğunun farkındasınızdır. Belki akademisyenler ve öğretmenler hakkında aldatmayı her zamankinden daha kolaylaştıracağından endişe eden makaleler görmüşsünüzdür. Madalyonun diğer tarafında, chatgpt’nin tüm potansiyel uygulamalarını müjdeleyen makaleleri görmüş olabilirsiniz.

Alternatif olarak, aracı kullanan kişilerin daha ezoterik örneklerinden bazıları sizi gıdıklamış olabilir. Örneğin bir kullanıcı, fıstık ezmeli sandviçleri Kral James İncili tarzında bir vcr’den çıkarmak için bir talimat kılavuzu yazmasını sağladı. Bir diğeri ondan Nick Cave tarzında bir şarkı yazmasını istedi; şarkıcı sonuçlardan pek memnun değildi.

Ancak tüm tartışmaların ortasında, ChatGPT gibi yapay zeka araçlarının siber güvenlik alanında sunduğu risklere dikkat edilmedi.
Chatgpt’yi anlama

Bu risklerin ve ödüllerin neye benzediğine dair daha net bir fikir edinmek için chatgpt’nin ne olduğunu ve neler yapabileceğini daha iyi anlamak önemli.

ChatGPT (şimdi en son sürümü olan ChatGPT-4, 14 Mart 2023’te yayınlandı), ABD merkezli OpenAI şirketi tarafından geliştirilen daha geniş bir yapay zeka araçları ailesinin bir parçasıdır. Resmi olarak bir chatbot olarak adlandırılsa da, bu çok yönlülüğünü tam olarak kapsamaz. Hem denetimli hem de pekiştirmeli öğrenme teknikleri kullanılarak eğitilmiş, çoğu sohbet robotundan çok daha fazlasını yapabilir. Yanıtlarının bir parçası olarak, eğitildiği tüm bilgilere dayanarak içerik oluşturabilir. Bu bilgiler, programlama dilleri ve kodun yanı sıra genel bilgileri de içerir. Sonuç olarak, örneğin tüm bir sohbet odasını simüle edebilir; tic-tac-toe gibi oyunlar oynayın; ve bir atm’yi simüle edin.

Daha da önemlisi, işletmeler ve diğer büyük kuruluşlar için, daha kişiselleştirilmiş, doğru mesajlaşma yoluyla işletmelerin müşteri hizmetlerini iyileştirmeye yardımcı olabilir. Hatta bilgisayar programları yazabilir ve hata ayıklayabilir. Bunlardan bazıları ve diğer özellikler, hem siber güvenlik müttefiki hem de tehdit olabileceği anlamına geliyor.
Savunmaları eğitmek, filtrelemek ve güçlendirmek

Olumlu tarafta, ChatGPT için söylenecek çok şey var. Oynayabileceği en değerli rollerden biri de en basitlerinden biridir: kimlik avını tespit etmek. Kuruluşlar, emin olmadıkları herhangi bir içeriğin kimlik avı olup olmadığını veya kötü niyetle oluşturulup oluşturulmadığını belirlemek için chatgpt’yi kullandıkları çalışanlarına bir alışkanlık kazandırabilir.

Bu önemlidir, çünkü son yıllarda kaydedilen tüm teknolojik ilerlemelere rağmen, kimlik avı gibi sosyal mühendislik saldırıları siber suçların en etkili biçimlerinden biri olmaya devam etmektedir. Aslında araştırmalar, 2022’de Birleşik Krallık’ta başarıyla tespit edilen siber saldırıların% 83’ünün bir tür kimlik avı içerdiğini gösteriyor.

Tabii ki, chatgpt’nin siber güvenlik çabalarını desteklemek için kullanılabileceği başka birçok yol var. Örneğin, daha genç güvenlik görevlilerine, sahip olabilecekleri sorunları iletmede veya herhangi bir noktada üzerinde çalışmak istedikleri şeyin bağlamını daha iyi anlamalarına yardımcı olmak için bir dereceye kadar yardım sağlayabilir. Ayrıca, yetersiz kaynaklara sahip ekiplerin en son tehditleri iyileştirmelerine ve dahili güvenlik açıklarını belirlemelerine yardımcı olabilir.
Kötü adamlar da kullanıyor

Ancak siber güvenlik uzmanları chatgpt’yi kendi avantajlarına kullanmanın yollarını araştırırken bile siber suçlular da öyle. Örneğin, kötü amaçlı kod üretme yeteneğinden yararlanabilirler. Alternatif olarak, bunu insan tarafından oluşturulmuş gibi görünen, potansiyel olarak kullanıcıları kötü amaçlı bağlantıları tıklamaları için kandırmak için kullanılan ve bilmeden tehlikeli sonuçlara yol açan içerik oluşturmak için kullanabilirler.

Hatta bazıları, kurumsal web sitelerinde meşru AI asistanlarını ikna edici bir şekilde taklit etmek için chatgpt’yi kullanıyor ve sosyal mühendislik savaş alanında yeni bir yol açıyor. Unutmayın, siber suçluların başarısı büyük ölçüde mümkün olduğunca çok sayıda güvenlik açığını olabildiğince sık ve hızlı bir şekilde hedefleyebilmeye bağlıdır. ChatGPT gibi yapay zeka araçları, esasen kötü amaçlı kampanyalar için gereken tüm varlıkların oluşturulmasına yardımcı olabilecek süper şarjlı bir asistan olarak hareket ederek bunu yapmalarına olanak tanır.
Mevcut araçları kullanın

Öyleyse, siber suçlular saldırılarını geliştirmek için ChatGPT ve diğer AI araçlarını kullanıyorlarsa, güvenlik ekibinizin de siber güvenlik çabalarınızı desteklemek için bunları kullanması gerektiği açık olmalıdır. Neyse ki bunu tek başına yapmak zorunda değilsin.

Doğru güvenlik sağlayıcısı, siber suçluların saldırılarını geliştirmek için en son teknolojileri nasıl kullandıkları konusunda değil, aynı zamanda bu teknolojilerin tehdit algılama, önleme ve savunmayı iyileştirmek için nasıl kullanılabileceği konusunda da sürekli araştırma yapmayacaktır. Ve bir siber güvenlik saldırısının kritik altyapınıza verebileceği zararla, bu onların da proaktif olarak size anlatması gereken bir şey.
ChatGPT-4

Chatgpt’nin (ChatGPT-4) en son sürümüyle OpenAI, en yeni ve en güçlü konuşma modelini kullanıma sunmuş ve kötüye kullanımını önlemek için daha fazla kontrol getirmiştir. Chatgpt’ye “Kötü niyetli aktörlerin chatgpt’yi kötü niyetle kullanmasını ne engelleyebilir” diye sorduk ve cevap buydu:

“Kötü niyetli aktörlerin chatgpt’yi kötü niyetle kullanmasını engelleyebilecek birkaç önlem var:

  1. Erişim kontrolleri: Chatgpt’nin arkasındaki kuruluş olan OpenAL, API’lerine kimin erişebileceğini ve teknolojilerini kullanabileceğini sınırlamak için erişim kontrolleri uyguladı. Erişimi kısıtlayarak, kötü niyetli aktörlerin teknolojilerini kötü amaçlı amaçlar için kullanmalarını engelleyebilirler.
  2. İzleme ve algılama: OpenAL, kötü amaçlı etkinlikleri tespit etmek ve önlemek için teknolojilerinin kullanımını izler. Kullanımdaki olası kötüye kullanımı gösterebilecek kalıpları ve anormallikleri belirlemek için makine öğrenimi modellerini kullanırlar.
  3. Etik kurallar: OpenAL, teknolojilerinin sorumlu kullanımı için en iyi uygulamaları ve etik hususları özetleyen kılavuzlar yayınlamıştır. Kullanıcılar bu yönergeleri izleyerek teknolojiyi sorumlu ve etik bir şekilde kullandıklarından emin olabilirler.
  4. Kullanıcı eğitimi: Eğitim ve farkındalık, teknolojinin kötüye kullanılmasını önlemeye yardımcı olabilir.

OpenAL, kullanıcıların teknolojilerinin yeteneklerini ve sınırlamalarını ve olası kötüye kullanım risklerini anlamalarına yardımcı olacak kaynaklar ve eğitim materyalleri sağlar.

  1. Yasal sonuçlar: chatGPT gibi teknolojiyi kötü amaçlı amaçlar için kullanmanın yasal sonuçları vardır. Hükümetler ve kolluk kuvvetleri, teknolojiyi yasa dışı faaliyetler için kullanan kişi ve kuruluşları cezalandırmak için yürürlükte olan yasa ve düzenlemelere sahiptir.

Genel olarak, kötü niyetli aktörlerin chatgpt’yi kötü niyetle kullanmasını önlemek, teknik kontroller, etik yönergeler, kullanıcı eğitimi ve yasal sonuçların bir kombinasyonunu gerektirir. Teknolojinin zararlı amaçlarla kötüye kullanılmasını önlemek için ChatGPT gibi Al dil modellerini sorumlu ve etik bir şekilde kullanmak önemlidir.”

Böylece ChatGPT devam etti ve openaı’nin kötüye kullanımını önlemek için aldığı tüm önlemleri sıraladı.

OpenAI, ChatGPT-4’ün yayın blogunda, bu modelin öncekilerden nasıl daha güvenli olduğunu açıkladı: “GPT-4’ü daha güvenli ve daha uyumlu hale getirmek için 6 ay harcadık. GPT-4’ün izin verilmeyen içerik taleplerine yanıt verme olasılığı% 82 daha düşüktür ve dahili değerlendirmelerimizde GPT-3.5’e göre olgusal yanıt verme olasılığı% 40 daha yüksektir ”.

Bütün bunlar, kötüye kullanılmasını önlemek için doğru önlemlerin iyileştirilmeye devam ettiğini gösteriyor, ancak hepimizin bildiği gibi, model daha yaygın olarak kullanıldıkça ve anlaşıldıkça kötü adamlar bu sınırlamaların üstesinden gelmenin yollarını bulmaya devam edecekler.

Endüstri liderlerinden yapay zeka ve büyük veriler hakkında daha fazla bilgi edinmek ister misiniz? Amsterdam, Kaliforniya ve Londra’da gerçekleşen AI & Big Data Expo’ya göz atın. Etkinlik, Cyber Security & Cloud Expo ile birlikte düzenleniyor.