⑴ 计算机的01代码是怎样被识别的
明白这一点就好办了 编译器首先将你写的代码读入内存.然后寻找代码中的关键字.标识符等信息.建立一个所谓的符号表.根据这个符号表对你的源代码进行检查.检查的依据正是该语言的语法和句法规则.比如是否有变量重复定义错误.是否有类型不兼容错误.是否有遗漏语句分隔符错误等等.这些都是比较简单的.例如根据语言的关键字表可以检查是否有非法的关键字(语句分隔符之后的下一个有效字符一定是一个关键字或已定义的标识符.因此很容易识别并挑出其中的关键字进行检查).其它检查也是类似的. 检查没有问题后.编译器开始链接和映射操作(该过程在检查阶段也有使用).将你的源程序翻译成汇编程序或其它中间程序.这一步是最复杂的.因为句法和语法比较简单.但整个程序的逻辑却复杂的多.而且编译器还要负责在不改变代码原意的前提下将代码尽可能地进行优化. 最后就是将生成的汇编代码翻译为机器语言.这一步是最简单的.因为汇编只是将机器语言简单符号化而已.现在的编译理论已经能够确保将汇编代码准确地翻译为机器码了.
⑵ 编译器怎么知道include的是库文件还是其他目标文件
系统查询。编译器会自动进行系统查询识别,所以是知道include里的目标文件的。编译器就是将“一种语言(通常为高级语言)”翻译为“另一种语言(通常为低级语言)”的程序。
⑶ 用高级编程语言写的代码计算机是怎么识别的
首先我要说明一下,您这个问题本来就有问题。
其实只有二进制文件计算机才直接识别,也就是bin文件。
用高级编程语言写的代码,通过编译器或编程平台(像VC++,VC#.net之类的)转化为可执行程序(exe文件),然后可以在操作系统中执行,说白了,通过用高级编程语言生成的可执行程序不能直接通过计算机去识别,它必须通过操作系统识别后,然后由操作系统向计算机硬件发出相应的处理信息。计算机硬件才能进行操作。(纯属个人见解)
兄弟我也只懂一点而已,还是一个在校学生,可能解释得不太清楚。
我的QQ是:57862207,乐意和大家交流。
⑷ 编译器如何识别字符是关键字还是变量名的
编译过程大概分这么几步
首先用有限状态自动机把代码文本分割成一个一个的token,每个token是一个意义单位,
比如
int main(123);
就被分割成了
int
main
(
123
)
然后对token列表根据该语言的语法建立语法树,在建立语法树的过程中就要区分某个单词是关键字还是标识符(也就是变量名),一般来讲编译器一般都有一个保留字列表,开始的时候都当作变量名看待,如果发现某个变量名出现在了保留字列表里,就对其进行标识处理。
⑸ 代码是怎么被计算机识别,输入或输出的
最原始的工作原理,就是通过三极管
指出栅极起控制作用),给它的栅极输入高电平(1)另外两极就导通(1)或断路(0),输入低电平(0)另外两极就断路(0)或导通(1)。
然后由各种电子元器件组成各种门电路(与、或、非,同,四个门以及这四个玩意组合起来的门电路)、“锁存电路”、“时序电路”等各种《数字逻辑电路》课程里会讲到的电路。
在《计算机组成原理》课程里,会教你如何把这些电路组成加法器、减法器、乘法器……然后这些各种“器”以及上述各种门电路组成芯片,芯片的引脚就是上面提到的三极管之类某些原件的某些极。小一些的芯片只有编号编号,比如4001之类的,早期并没有CPU的概念,所以早期的CPU也是用编号的,比如4004,8008,8080,8086……然后给某个引脚输入高电平(1)或者低电平(2),里面各种三极管会通通断断做一些改变,另外一些引脚就会在高电平(1)和低电平(0)之间做一些变化,就是你拿到的输出。输出连接到另一个芯片的某些引脚做输入,然后就……这门课还会教你如何用微码来编写CPU的微码指令,将读到的机器码转化为对应的微码程序,并用微码程序实现机器码命令的功能。
接下来《汇编语言》课程会教你写汇编程序,汇编的编译器会把你写的东西翻译成机器码。
代码,通过编译器,编译成汇编指令,最终翻译成机器码
机器码对应的0和1,变成了引脚的高低电平,输入给了译码器,调用(译码器输出的信号转换成了具体某个微码程序的地址)指定的微码程序,微码程序改变CPU内部某些模块的引脚的高低电平,控制具体的门电路,改变CPU某些引脚的输出,这些输出的引脚里,某几个引脚的高低电平改变了总线的行为,总线将剩下的输出信号给了指定硬件,比如内存/显卡。。。指定硬件根据这些信号由不同硬件做了不同事。
⑹ c与c++语言编译器是如何识别关键字
根据编译器的不同,有不同的识别方式,例如VC6.0使用系统内建关键字列表,如果用户定义变量的时候使用了系统默认的关键字,则会在编译的时候产生错误。
附上:
C语言的关键字共有32个,根据关键字的作用,可分其为数据类型关键字、控制语句关键字、存储类型关键字和其它关键字四类。
1 数据类型关键字(12个):
(1) char :声明字符型变量或函数
(2) double :声明双精度变量或函数
(3) enum :声明枚举类型
(4) float:声明浮点型变量或函数
(5) int: 声明整型变量或函数
(6) long :声明长整型变量或函数
(7) short :声明短整型变量或函数
(8) signed:声明有符号类型变量或函数
(9) struct:声明结构体变量或函数
(10) union:声明联合数据类型
(11) unsigned:声明无符号类型变量或函数
(12) void :声明函数无返回值或无参数,声明无类型指针(基本上就这三个作用)
(2)控制语句关键字(12个):
A循环语句
(1) for:一种循环语句(可意会不可言传)
(2) do :循环语句的循环体
(3) while :循环语句的循环条件
(4) break:跳出当前循环
(5) continue:结束当前循环,开始下一轮循环
B条件语句
(1)if: 条件语句
(2)else :条件语句否定分支(与 if 连用)
(3)goto:无条件跳转语句
C开关语句
(1)switch :用于开关语句
(2)case:开关语句分支
(3)default:开关语句中的“其他”分支
D
return :子程序返回语句(可以带参数,也看不带参数)
3 存储类型关键字(4个)
(1)auto :声明自动变量 一般不使用
(2)extern:声明变量是在其他文件正声明(也可以看做是引用变量)
(3)register:声明积存器变量
(4)static :声明静态变量
4 其它关键字(4个):
(1)const :声明只读变量
(2)sizeof:计算数据类型长度
(3)typedef:用以给数据类型取别名(当然还有其他作用
(4)volatile:说明变量在程序执行中可被隐含地改变
⑺ 计算机是如何识别C语言的
计算机是不能直接识别C语言的,它需要经过特殊的编译器,编译之后的二进制才能被计算机识别,计算机只能识别二进制代码。
整个程序的编译过程中有三个角色:程序员——编译器——计算机。
程序员和编译器之间的交流是C语言,同时编译器也能把C语言经过翻译成二进制指令。编译器相当于程序员和计算机之间的翻译官。
一个C语言程序的过程有以下步骤:
一、程序员使用C语言编写代码;
二、编译把代码翻译成二进制指令;这里也有四个步骤:
a.预处理,这里主要处理头文件,和程序中的一些宏代码;
b.编译,主要是把每个C语言文件编译成二进制目标代码;
c.链接,把上一步生成的目标代码和库文件进行链接,最终生成可执行程序。
以上就是C语言到计算机可识别代码的转换过程。
⑻ 在预处理器macros,如何识别平台/编译器
1.预处理首先源代码文件(.c/.cpp)和相关头文件(.h/.hpp)被预处理器cpp预编译成.i文件(C++为.ii)。预处理命令为:gcc–Ehello.c–ohello.i预编译过程主要处理那些源代码中以#开始的预编译指令,主要处理规则如下:u将所有的#define
⑼ 哪位大牛能告诉我,c语言中的'&'这个符号,到底编译器是怎么识别并运用它的
'&'是多功能运算符,至于如何解释该符号,编译器是根据“上下文”来判断的。
由于在C中每个变量必须先声明后使用,比如有声明 :
int x = 3,y = 5,z;
int *p,fun(int &, int &); // 这里显然是引用操作符啦!
对于
z = x & y; // 很明显的,这是逻辑与(and)运算
x &= y; // 这里也是
p = &x; // 这是取址运算,注意,新版的C中没有 =& 双目运算符
-----------------------------------------------------------------------------------------------------------------------
在C++中,有运算符重载函数,比如
aClass operator&(const aClass &x,const aClass &y);,功能是实施类x和y的逻辑与,并返回aClass的实例,这里operator&中的“&”是被重载的运算符,&x,&y中的“&”是引用操作符。
----------------------------------------------------------------------------------------------------------------------
如果你希望了解编译程序的细节,请参考相关书籍。
⑽ 编程语言是怎样被硬件识别和执行的
一、识别
计算机只能识别“0”和“1”两个数(或两个状态),为了使计算机能处理复杂多样的信息,就必须把这些信息转换为用“0”和“1”表示的代码( 用“0”和“1”表示的代码称为二进制编码,为了编程的方便,人们常用的编码方式有十进制、十六进制、BCD码、ASCII码等,通过译码器译成二进制码)。在计算机中,编码的最小单位为比特( bit ),1 比特就是一位二进制数码( 一个0或一个1 )。8位连续的二进制数码组成 1 个字节( Byte,1 字节 = 8 bit )。二进制码也称为机器语言。
二、执行
二进制码通过逻辑门电路,触发电路转换为高、低电平输出,进而驱动外围硬件电路,实现相应的功能。