Yapay zekâ (YZ), öğrenme, karar verme ve problem çözme gibi insan bilişsel işlevlerini simüle edebilen hesaplamalı sistemlerin geliştirilmesine odaklanan çok disiplinli bir alan olarak tanımlanmaktadır. Ancak YZ teknolojilerinin artan karmaşıklığı, yalnızca teknik yeterlilikleri değil; aynı zamanda bilinç, öznel deneyim, özgür irade ve ahlâkî sorumluluk gibi temel felsefî meseleleri de yeniden gündeme getirmektedir. Bu çalışma, YZ teknolojilerinin insanın bilinçli, özgür iradeli ve anlam temelli eylemleriyle karşılaştırılabilir olup olmadığını felsefî, epistemolojik ve ontolojik bir çerçevede incelemeyi amaçlamaktadır. Bu bağlamda çalışma, YZ’nin insanın epistemolojik ve ontolojik boyutlarına sahip olup olamayacağını eleştirel bir perspektifle değerlendirmektedir. İnsan, biyolojik ve zihinsel yapının bütünlüğü içinde bilinç, niyetlilik, öznel deneyim ve anlam üretme kapasitesine sahip bir varlık olarak ele alınırken; YZ, algoritmik ve veri temelli hesaplamalı süreçlerle işleyen ontolojik olarak farklı bir yapı olarak analiz edilmektedir. Özellikle makine öğrenmesi ve derin öğrenme modellerinin “öğrenme” olarak adlandırılan süreçlerinin, epistemik anlamda gerekçelendirilebilir bir bilgi üretimi değil, istatistiksel bir optimizasyon faaliyeti olduğu savunulmaktadır. Çalışmada ayrıca YZ’nin bilinç ve özgür irade geliştirip geliştiremeyeceği sorunu ele alınmaktadır. Bilincin temel nitelikleri olan farkındalık, öznel deneyim ve anlam üretme dikkate alındığında, YZ’nin bu niteliklere sahip olduğu iddiasının ikna edici olmadığı ileri sürülmektedir. Benzer şekilde özgür irade, niyetlilik ve ahlâkî fail-oluş gibi kavramların ontolojik temelleri açısından değerlendirildiğinde, YZ’nin gerçek anlamda özgür ve sorumlu bir fail olarak nitelendirilemeyeceği sonucuna ulaşılmaktadır.
Artificial intelligence (AI) is commonly defined as a multidisciplinary field focused on developing computational systems capable of simulating human cognitive functions such as learning, decision-making, and problem-solving. However, the increasing complexity of AI technologies has raised not only technical but also profound philosophical questions concerning consciousness, subjective experience, free will, and moral responsibility. This study aims to examine whether the operations performed by AI systems can be meaningfully compared to human actions characterized by consciousness and free will, within a philosophical, epistemological, and ontological framework. In this context, the study critically evaluates whether AI can possess the epistemological and ontological dimensions that characterize human beings. While humans are understood as entities constituted by the unity of biological and mental structures, endowed with consciousness, intentionality, subjective experience, and meaning-making capacities, AI is analyzed as an ontologically distinct system operating through algorithmic and data-driven computational processes. Particular attention is given to machine learning and deep learning models, whose so-called “learning” processes are argued to lack epistemic justification and instead function as forms of statistical optimization rather than genuine knowledge acquisition. Furthermore, the paper addresses the question of whether AI can develop consciousness or free will. Given the core features of consciousness—such as awareness, subjective experience, and meaning production—it is argued that attributing genuine consciousness to AI remains highly problematic. Similarly, when free will is understood in relation to intentionality, alternative possibilities, and moral agency, AI systems fail to meet the necessary ontological conditions. Consequently, the study concludes that AI, despite its capacity to perform complex actions, cannot be regarded as a conscious, free, or morally responsible agent.