Teknoloji

Yapay Zekânın Tehlikeleri

Yapay Zekânın Tehlikeleri

Yapay Zekâ (YZ ) birçok potansiyel fayda sağlarken, aynı zamanda çeşitli tehlikeleri de beraberinde getireceği düşünülmektedir. İnsan zekâsı bugüne kadar tüm gelişmelerde öncü ve tek potansiyel güç olmuş, teknolojiye ve insanlığa yön veren konumunu her zaman korumuştur. Yapay zekanın ilk etapta korkulan tarafı, “bilgisayarların yüksek veri işleme potansiyeli ile yapay zekanın insan zekasından daha yüksek süper bir zekâ düzeyine erişerek insan zekasını da kendi kontrolü altına almasıdır öngörüsüdür”. Bugünkü bilgisayar teknolojisinin işlem gücü ile bu şu an mümkün görülmemekle birlikte özellikle Quantum bilgisayarların şimdiki teknoloji ile mukayese edilemeyecek hızlardaki işlemci gücüne ulaşması bu konunun ihtimal dahilinde olacağı öngörüsünü de ortaya çıkarmaktadır.

Bu işlemci gücünün katalizör etkisi ile yapay zekanın ötesi olan Yapay Süper Zekâ (Artificial Superintelligence – ASI), Yapay Zekâ alanında en zeki ve yetenekli insan zekâsını aşan bir zekâyı ifade eden bir kavram olarak karşımıza çıkmaktadır. Yapay Süper Zekâ (ASI) düzeyi, insan zekâsını sadece taklit etmekle kalmayarak, her alanda, yaratıcı düşünce, genel bilgelik ve sosyal beceriler dahil olmak üzere, insan yeteneklerini aşan bir noktaya ulaşabilecektir.

Yapay Zekâ sistemleri kendilerini etkin bir şekilde yeniden programlayabildiğinde “Teknolojik tekillik” veya “Zekâ patlaması” olarak adlandırılan bir duruma yol açarak kendilerini başarılı bir şekilde geliştirebildikleri anda artık makinelerin insanları geride bırakma riskleri göz ardı edilemez boyuta ulaşacaktır.

Mart 2018’de Teksas’ta bir teknoloji konferansında Tesla ve SpaceX ’in kurucusu Elon Musk dünyaya şu uyarıyı yaparak:  Yapay Zekâ nükleer bombalardan çok daha tehlikeli! olduğunu paylaşmıştır.

Aynı şekilde; Fizikçi Stephen Hawking de bir zamanlar Portekiz’de yaptığı bir konuşmasında, “Yapay zekanın hızlı gelişimi sıkı ve etik olarak kontrol edilmedikçe felaket olabilir” görüşünü paylaşmıştı.

Yaşamın Geleceği Enstitüsü’nden Stuart Armstrong da yapay zekadan “yok olma riski” olarak bahsediyor ve “Nükleer savaşın bile yıkım açısından farklı bir seviyede olduğunu çünkü gezegenin sadece nispeten küçük bir bölümünü riske sokacağını ama akıllı hale gelen teknolojinin bütün dünyayı riske sokabileceğini” savunmaktadır.

Yapay zekanın gelişimi, insanlık için hem büyük bir potansiyel hem de önemli riskler taşımaktadır. Teknoloji ve bilişim alanında yaşanan hızlı ilerlemeler, yapay zekanın günlük hayatımızın bir parçası haline gelmesini sağlamıştır. Yapay zekâ teknolojisi, veri işleme, çeviri servisleri, sosyal medya analizi, sağlık verilerinin analizi gibi pek çok alanda kullanılarak insan hayatını kolaylaştırmaktadır. Ancak bu teknolojinin getirdiği olası tehlikeler de göz ardı edilemez.

Yapay zekâ, insanlık için bir tehdit mi yoksa büyük bir fırsat mı sorusuna net bir cevap vermek pek de kolay olmayacaktır. Bu teknolojinin kötü niyetli insanlar tarafından kötüye kullanılabilme ihtimali, insanları işlerinden edebilme potansiyeli ve insanlığı ele geçirme korkusu gibi endişeler yıllardır tartışma konusu olmuştur. Günümüzde özellikle silah ve savaş teknolojileri, önyargı ve ayrımcılık, istihdam ve işsizlik ile ilgili kaygılar ve gizlilik ile güvenlik konularında yapay zekanın getirebileceği riskler tartışılmaktadır.

Günümüzdeki Yapay Zekâ henüz emekleme dönemindeki bir çocuk gibidir. Şu an öğreniyor ve gelişiyor. Ama bir gün gelecek tıpkı insan zekâsı gibi gelişerek, öğrenerek ve deneyimleyerek daha etkin hale gelecektir. Yapay Zekâ ile insan zekasının arasındaki en tehlikeli fark yapay zekanın asla unutmaması ve işlem yapabilme hızının insan zekasının çok üstünde olmasıdır. Yapay zekanın aşamaları incelendiğinde şu anda ilk iki aşama geçilmiş ve en tehlikeli olan 3. Aşamanın yani Artificial Superintelligence – ASI’nin arifesinde olduğumuz görülmektedir.

Yapay Zekânın Gelişim Aşamaları

1.Aşama: Dar Yapay Zekâ (Artificial Narrow Intelligence – ANI):

Zayıf AI olarak da bilinen, ANI belirli bir görevi yerine getirmek üzere tasarlanmıştır (örneğin, yüz tanıma, internet aramaları, sürücüsüz araçlar.) Sınırlı bir kısıtlar seti altında çalışan ve onu programlayan insan zekasının ötesinde performans gösterme potansiyeli bulunmayan ANI,  tamamen insan zekasının kontrolü altındadır.

2.Aşama: Genel Yapay Zekâ (Artificial General Intelligence – AGI):

Güçlü Yapay Zekâ veya İnsan Seviyesinde Yapay Zekâ olarak da bilinen AGI, geniş bir yelpazedeki görevlerde insan benzeri bilişsel yeteneklerle anlayabilen, öğrenebilen ve bilgi uygulayabilen bir sistemi ifade etmektedir. Kontrol yine insan zekasında olsa da AGI karar verme hızı olarak insan zekasından daha ileri bir seviyededir.

3.Aşama: Yapay Süper Zekâ (Artificial Super Intelligence – ASI):

ASI, AGI ’nin bir adım ötesine geçerek her alanda insan yeteneklerini çok aşan zekâ düzeyine ulaşarak problem çözme, karar verme ve duygusal zekâ yeteneklerine kavuşabilme potansiyeline sahip ASI ’nin yaratıcı tarafı olan Jeneratif (Üretken) Yapay Zekâ (Generative AI), girdilerden yeni ve orijinal içerikler üreten bir Yapay Zekâ türü olarak karşımıza çıkmaktadır. Bu içerikler arasında metin, görüntü, ses, video ve daha fazlası bulunabilir. Jeneratif yapay zekâ, çeşitli algoritmalar ve modeller kullanarak yeni veri örnekleri oluşturmakta ve bu nedenle yaratıcı süreçlerde önemli bir rol oynamaktadır.

Artificial Superintelligence (ASI) ve

Yapay Zekânın Potansiyel Tehlikeleri

  • Kendini Otonom olarak Geliştirebilme: ASI Yapay Zekâ sistemi kendi algoritmalarını ve donanımını otonom olarak geliştirebilir, bu da yeteneklerinde hızlı ilerlemelere ve üstel büyümeye yol açabilir.
  • Yüksek erişim seviyesi: ASI, geniş veri kaynaklarına ve hesaplama kaynaklarına erişebilecek ve bunlarla entegre olabilecektir. Bu da görevleri benzeri görülmemiş bir verimlilik, hız ve doğrulukla insan zekasının üstünde bir seviyede gerçekleştirmesini sağlayacaktır.
  • Yaratıcı Problem Çözme yeteneği: İnsan zekâsının aksine ASI, insan bilişsel önyargıları ve sınırlamaları tarafından kısıtlanmaksızın, sorunlara yeni ve daha hızlı çözümler bulma potansiyeline sahiptir.
  • Etik ve Ahlaki Akıl Yürütme yeteneği: İdeal olarak, ASI ’nin gelişmiş etik akıl yürütme yeteneklerine sahip olması ve eylemlerinin insan değerleri ve toplumsal normlarla uyumlu olması istense de bu ise önemli felsefi ve teknik zorlukları beraberinde getirmektedir. ASI – Yapay Zekâsı içinde bulunduğu bölgedeki ekosistemin değerleri ve normları ile farklı bir bölgedeki değerler ve normlar farklılık gösterecektir. Örneğin, Avrupa normlarına göre gelişmiş bir Yapay Zekâ ile Orta Asya normlarına göre gelişmiş bir yapay zekanın ahlaki ve etik değerleri farklı olacak ve çatışma yaratacaktır. ASI ‘nin geliştirilmesi ve kullanılması, özerklik ve potansiyel kötüye kullanım hakkında derin etik soruları gündeme getirmektedir.
  • Varoluşsal Riskler: ASI, amaçları insan değerleriyle uyumsuz hale gelirse önemli riskler oluşturabilir. Kontrolsüz bir ASI, insanlığa zarar verebilecek şekilde hareket edebilir. İnsanlar tarafından yaratılan ama bizim kontrolümüzden çıkarak potansiyel tehlikeler ile gelişen Yapay Zekâ kendi başına ayrı bir kategoride ilerliyor. Yani sürekli ortaya çıkan varoluşsal bir korku kaynağı ile karşı karşıyayız. Yapay Zekanın insan zekâsını aşması durumunda, Yapay Zekâ  sistemlerinin hedefleri ve motivasyonları insanlık için varoluşsal tehditler oluşturabilir.
  • Kontrol Problemi: Gelecekteki AI sistemlerinin insan çıkarlarıyla uyumlu kalmasını ve kontrol edilebilir veya sınırlandırılabilir olmasını sağlamak, AI güvenliği araştırmalarında çözülememiş büyük bir sorun olarak karşımıza çıkmaktadır.
  • İş Kaybı ve İşsizlik: Yapay zekâ, birçok sektörde otomasyonu artırarak insan iş gücüne olan ihtiyacı azaltabilir. Bu, özellikle düşük vasıflı işlerde büyük iş kayıplarına ve işsizlik oranlarında artışa yol açabilecektir. Yapay zekâ ve otomasyonun yaygınlaşması, bazı iş rollerinin kaybolmasına veya insan işgücüne olan talebin azalmasına yol açabilir. Bu durum, özellikle düşük nitelikli ve rutin işlerde çalışanlar için işsizlik riskini artırabilir.

Artık yapay zekanın belirli iş türlerinin yerini alıp almayacağı değil, ne dereceye kadar alacağı konusu konuşulmakta ve endüstride özellikle de çalışanları öngörülebilir ve tekrarlı işleri yapanlarda yapay zekanın kullanımı artmaktadır. 2019’da yapılan bir araştırmada perakende satış ve pazar analizinden, üretim ve depo işçiliğine kadar birçok konunun çok geçmeden görevlerinin en az yüzde 70’i Yapay Zekâ tarafından yapılacağı paylaşılmıştı.

  • Yapay Zekâ Robotları: Yapay Zekâ robotları daha akıllı ve daha hünerli hale geldikçe aynı görevler daha az insan gerektirecek. Diğer bir yandan yapay zekanın bu hızlı gelişimi ile iş yaşamında yeni meslekler oluşacaksa da (veri dedektifi, bilgi işlem destekleyici, Yapay Zekâ iş geliştirme yöneticisi, insan makine ekip yöneticisi vb.) mesleklerde insanların eğitim ve yetkinliklerinde aynı gelişim hızını gösterememeleri sebebiyle birçok pozisyon onlar için erişilemez olacaktır.
  • Eşitsizlik: Yapay Zekâ teknolojilerinden en çok yararlananlar genellikle büyük şirketler ve yüksek vasıflı çalışanlar olacaktır. Bu da gelir eşitsizliğini artırma potansiyeli taşımaktadır.
  • Güvenlik ve Kontrol: Yapay Zekâ ile çalışan otonom silahlar, insan müdahalesi olmadan hedefleri belirleyip yok edebilir, bu da savaşın doğasını değiştirebilir ve sivil kayıplarını artırabilir.
  • Yapay Zekânın Kötüye Kullanımı: Siber saldırılar, dezenformasyon kampanyaları, kişisel verilerin kötüye kullanımı gibi alanlarda Yapay zekânın kötüye kullanılması ciddi güvenlik tehditleri oluşturabilir.
  • Gizlilik ve Veri Güvenliği: Yapay Zekâ sistemleri büyük miktarda veri gerektirir ve bu verilerin toplanması, saklanması ve kullanılması gizlilik ve veri güvenliği konusunda ciddi endişeler yaratmaktadır. Kritik verinin çok yetenekli Yapay Zekâ algoritmalarından korunması riskli bir konudur.
  • Yanlılık ve Ayrımcılık: Yapay Zekâ sistemleri, eğitim verilerindeki yanlılıkları öğrenebilir ve bu yanlılıkları tekrar edebilir, bu da ayrımcı uygulamalara ve adaletsizliklere yol açabilir. Avrupa Birliği’nin teknoloji komisyoneri Margrethe Vestager, yapay zekanın önyargı ve ayrımcılığı körükleyebileceği, önemli kararlar verme süreçlerinde insanların hayatlarını olumsuz yönde etkileyebileceği, ülke seçimlerine müdahale edebileceği gibi risklere işaret ediyor.
  • Kontrol Problemi: Yüksek derecede otonom ve zeki Yapay Zekâ sistemlerinin kontrol edilmesi zor olacaktır. Bu tür sistemlerin insan çıkarlarıyla uyumlu kalmasını ve insan kontrolünde olmasını sağlamak büyük bir zorluktur. Bu durum ülkelerin iç ekonomisini, politikaları, sosyal düzeni, vergi sistemini, banka, sigorta ve ticari piyasaları yakından etkileyecek, tahmini zor olan oldukça karmaşık yeni bir denklem oluşturacaktır.
  • Toplumsal ve Psikolojik Etkiler: Yapay Zekânın yaygın kullanımı, insan etkileşimlerini azaltabilir ve toplumsal izolasyonu artırabilir. Yapay Zekâ Güvenlik Merkezi gibi kuruluşlar, yapay zekanın yanıltıcı bilgiler yayarak toplumun istikrarını bozabileceği veya makinelerin insan üstü zekaya ulaşarak insanlığın sonunu getirebileceği risklerine dikkat çekiyorlar.
  • Kişisel Verilerin Kötüye Kullanılması: Yapay zekâ teknolojileri, büyük miktarda kişisel veriyi toplayıp işleyebilir, ancak bu verilerin kötüye kullanılması veya siber saldırılara maruz kalması, kişisel gizlilik haklarını ciddi şekilde tehlikeye atabilir. Bununla birlikte ülkelerin istihbarat ve askeri kurumları birçok yeni fırsat ve tehditlerle karşı karşıya kalacaktır. Siber saldırılardan korunma gerekliliği günümüzde de oldukça büyük bir önem taşır ancak yapay zekâ teknolojisinin gelişimiyle birlikte bu konu ülkelerin belki de ilk önceliği haline gelecektir.
  • Yapay Zekanın Yanlış Kararlar Vermesi: Karar verme süreçlerinde kullanıldığında, yapay zekanın hatalı kararlar alması, özellikle sağlık, güvenlik ve adalet sistemleri gibi kritik alanlarda ciddi sonuçlara yol açabilir. Ayrıca yapay zekanın gelişimiyle birlikte bu alanda faaliyet gösteren teknoloji ve araştırma şirketleri eskisine göre oldukça daha etkin bir yere sahip olacaktır.
  • Güven ve Bağımlılık: İnsanların Yapay Zekâ sistemlerine aşırı güvenmesi ve bağımlı hale gelmesi, önemli kararların insan kontrolünden çıkmasına neden olabilir.
  • Hukuki ve Yasal Zorluklar: Yapay Zekâ sistemlerinin hatalı veya zararlı davranışlarından yasal olarak kimlerin sorumlu tutulacağı konusunda yasal belirsizlikler bulunmaktadır.
  • Düzenleyici Eksiklikler: Hızla gelişen Yapay Zekâ teknolojilerine uygun düzenlemelerin ve yasaların geliştirilmesi zordur. Bu da yasal ve etik sorunları beraberinde getirmektedir. Bununla birlikte yapay zekanın karar alma kabiliyeti farklı ülkelerdeki yargı düzeninin yanı sıra ülke yönetim modellerinde oldukça büyük değişimlere yol açabilir. Örneğin yapay zekâ teknolojisinde yetkin şirketler ekonomik adalet veya serbest piyasayı savunan farklı temelli yapay zekâ programları geliştirerek doğrudan siyasi partilerle yakından ilişkin bir pozisyona geçiş yapıp, politika sahasında belirgin bir rol oynayabilir.
  • Deepfake, Telif Hakkı ve Sahtecilik: Jeneratif Yapay Zekâ ile oluşturulan içerikler, telif hakkı ihlalleri ve sahte içeriklerin (Deepfake ‘ler gibi) yayılması riskini taşımaktadır. Deepfake, mevcut bir görüntü veya videoda yer alan bir kişinin yapay sinir ağları kullanılarak başka bir kişinin görüntüsü ile değiştirildiği bir uygulamadır. Sıklıkla, makine öğrenmesi teknikleri kullanılarak mevcut medya, kaynak medya üzerinde birleştirilerek üst üste konularak, sahte görüntü hedef resim ya da videoya yerleştirilebilmektedir. Deepfake, “Deep Learning” (derin öğrenme) ve “Fake” (sahte) kelimelerden türetilmiş bir birleşik bir kelimedir. Yapay zekanın kötü niyetli kullanımının dijital ve fiziksel güvenliği ciddi bir şekilde tehdit etmektedir.

Görüntü üzerinde sahtekarlık yapabilen Yapay Zekâ teknolojisi, aynı şekilde ses ve benzeri dosyalar üzerinde de manipülasyon yapabilmektedir. Yapay zekanın doğal dil işlemeye dahil olan bir alt kümesi olan makine öğrenimi kullanılarak, herhangi bir politikacının ses klibi, o kişinin aslında böyle bir şey söylemediği halde ırkçı veya cinsiyetçi görüşler ortaya atıyormuş gibi görünmesi için manipüle edilebilir.

  • Kalite ve Gerçekçilik: Üretilen içeriklerin kalitesi ve gerçekçiliği her zaman yüksek olmayabilir. Özellikle görüntü ve video üretiminde, küçük hatalar bile göze çarpabilmektedir. Yapay Zekâ ayrıca gerçek olanlardan ayırt edilmesi çok zor olan hiper gerçek görünen sosyal medya “kişilikleri” oluşturabilmektedir. Twitter, Facebook veya Instagram’da ucuza ve geniş ölçekte konuşlandırıldıklarında hatta seçimleri bile etkileyebiliyorlar. Yapay Zekâ ile artık hiç kimse neyin gerçek neyin gerçek olmadığını bilmezken, aynı zamanda da doğru bilgiye nasıl ulaşılabileceğini de bilemeyecek. Yani gerçekten kendi gözlerinize ve kulaklarınıza tam anlamıyla inanamayacağınız, bilinmez bir dünyaya doğru gidildiği düşünülmektedir.
  • Etik Sorunlar: Yapay Zekânın yaratıcı süreçlerde kullanımı, insan emeği ve yaratıcılığı üzerindeki etkileri ve yaratıcı işlerdeki insanların yerini alma potansiyeli, telif hakkı gibi etik sorunları gündeme getirmektedir.
  • Denetim ve Güvenlik: Üretilen içeriklerin doğruluğunu ve güvenilirliğini sağlamak, özellikle dezenformasyon ve sahte haberlerin yayılmasını önlemek için önemli bir zorluk olarak karşımıza çıkmaktadır.
  • Dijital ölümsüzlük – (Digital Immortality) Projesi: 18 ayrı üniversite ve kuruluşta üzerinde çalışılan ve 2040 ’da bitirilmesi hedeflenen bir proje olan “Dijital Ölümsüzlük” insana varoluşsal bir tehdit oluştururken, beden ölse bile “İnsan zihnini buluta kopyalayarak, bilgi ve tecrübelerini dünya üzerinde robotlar vasıtasıyla kullanma” arayışı içindeler.

Yapay Zekâ Dünyayı ele geçirebilir mi?

İnsanlar Yapay Zekanın olumsuz etkilerini büyük ölçüde göz ardı ederek daha çok teknolojik ilerlemenin faydalarına odaklanacaktır. Politikacılar bu yeni teknolojilerin riskleri ve potansiyeli hakkında net bir anlayışa sahip olmadıkça, özellikle düşük gelirli ülkeler savunmasız kalacaklardır.

İstatistiklere göre, Yapay Zekâ pazarının 2025 yılına kadar 190 milyar dolara ulaşması beklenmektedir. 2021 yılında bilişsel ve Yapay Zekâ sistemlerine yönelik küresel harcamalar 57,6 milyar dolara ulaşırken, kurumsal uygulamaların %75 ’i Yapay Zekâ teknolojilerini kullanmaktadır. Ulusal GSYİH açısından, Yapay Zekâ harcamalarının 2030 yılına kadar Çin’de %26,1 ve ABD’de %14,5 oranında artması beklenmektedir.

Yapay Zekanın Risklerini Nasıl Azaltabiliriz?

Kötü niyetli yapay zekanın hasara yol açmasını önlemenin veya en azından yumuşatmanın tek yolu, konuya bir tür düzenleme ve standartlar getirmektir.

  • Yapay Zekâ projelerinin güvenli bir şekilde geliştirdiğini doğrulamak için iç görüye ve ardından kamu gözetimine sahip yetkin standardizasyon kuruluşları olması gerekir.
  • Yapay Zekâ sadece teknik bir mesele olarak değil multi disiplinler bir konu olarak ele alınmamalıdır. Yapay Zekâ hukuku, Yapay Zekâ psikolojisi, Yapay Zekâ eğitime etkileri, yapay zekanın toplumsal yaşama etkileri vb. geniş kapsamlı bir multidisipliner yapı kurulmalıdır. Bilişim teknolojilerinde eğitim alan veya çalışan kişilerin sosyoloji, psikoloji, ekonomi, antropoloji vb. diğer disiplinleri de araştırmaları gerekmektedir. Yapay zekanın yaratıcıları, ekonomi, hukuk, tıp, felsefe, tarih, sosyoloji, iletişim gibi diğer alanların yanı sıra etnik kökenler, cinsiyetler, kültürler ve sosyo-ekonomik gruplar arasındaki insanların iç görülerini, deneyimlerini ve endişelerini de araştırmalıdır. İnsan-bilgisayar-etkileşimi, psikoloji ve bilim ve teknoloji çalışmaları bir arada yapılmalıdır.
  • Stanford Üniversitesinde örneği olduğu gibi amacı yapay zekanın toplumu zayıflatmak yerine güçlendirmesini sağlamak olan, “Heartificial Intelligence” , Türkçesi “İnsan Merkezli Yapay Zekâ Enstitüleri” kurulabilir.
  • Yapay zekanın uluslararası denetlemesini yapacak bir üst kurul kurulması son derece önemlidir.
  • Yapay Zekâ kanunları ve denetim sistemleri geliştirilmeli.
  • Yapay Zekâ teknolojilerinde geride kalan ülkeler dijital işgal tehdidi altındadır. Bu konuda teknolojik yatırımlar, eğitimler yapılmalı ve bütçeler ayrılmalıdır.
  • Yapay Zekâ bakanlığı kurulmalıdır.

Özet

         Yapay zekanın tehlikelerini özetleyecek olursak, duygusuzluğun artması, otomasyon kaynaklı işsizlik oranının artması, İnsanın tembelleşmesi ,bilgi önümüze hazır geldikçe proaktifliğin, cesaret ve yaratıcılığın azalması, işlerin daha çok şey tarafından yapıldıkça ve yönetildikçe insanın daha çok makineleşmesi, etik ve ahlaki kayıplar, sosyoekonomik eşitsizlik, Deepfake sorunu, gizlilik ihlalleri, kötü veya yanlış verilerin neden olduğu algoritmik önyargılar, piyasa oynaklığına sebebiyet vermesi, silah otomasyonunun getireceği tehlikeler başlıklarında sıralanabilir.

Yapay Zekâ teknolojilerinin sorumlu ve etik bir şekilde geliştirilmesi, bu tehlikelerin önlenmesi ve yönetilmesi açısından kritik öneme sahiptir. Araştırmacılar, politikacılar ve toplum, Yapay Zekânın potansiyel risklerini anlamalı ve bu riskleri azaltacak önlemler almalıdır. Bu disiplinler arası iş birliği, şeffaflık ve etik ilkelerin benimsenmesi ile mümkün olabilecektir. Jeneratif yapay zekâ, yaratıcı süreçlerde devrim yapma potansiyeline sahip güçlü bir teknolojidir. Ancak, bu teknolojinin sorumlu ve etik bir şekilde kullanılması, potansiyel risklerin ve zorlukların dikkatli bir şekilde ele alınmasını gerektirmektedir.

Birol EKER

Bilişim Vadisi / Mayıs 2024

Kaynaklar:

Birol Eker

Bizim Bulut Bilgi İletişim Hizmetleri San ve Tic. A.Ş. Business Development Manager

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu