分析
给定两个二进制字符串,返回他们的和(用二进制表示)。
第一反应是先把二进制字符串转化为十进制,然后计算他们的和,再把他们的和转为二进制。
//二进制转十进制
int BinaryToDecimal(string s)
{
int num = 0;
for (int i = 0; i < s.size(); ++i)
{
if (s[i] == '1')
num += pow(2, s.size() - 1 - i);
}
return num;
}
//十进制转二进制
string DecimalToBinar(int n)
{
if (n == 0)
return "0";
string s = "";
while (n > 0)
{
if (n % 2 == 0)
s += "0";
else
s += "1";
n = n / 2;
}
reverse(s.begin(), s.end());
return s;
}
string addBinary(string a, string b) {
long tmp = BinaryToDecimal(a) + BinaryToDecimal(b);
return (DecimalToBinar(tmp));
}
看起来一切都没有问题,可以用文末的测试用例测试下,其实上面代码有溢出的bug。
代码
先把a,b两个字符串长度对齐,从最右端开始处理。相加的结果只有三种:0(0+0)、1(0+1、1+0)、2(1+1),结果为2时进1。
string addBinary(string a, string b) {
int Asize = a.size();
int Bsize = b.size();
//字符串长度对齐
if (Asize > Bsize)
{
string tmp(Asize - Bsize, '0');
b = tmp + b;
}
else if (Bsize > Asize)
{
string tmp(Bsize - Asize, '0');
a = tmp + a;
}
int count = 0; //标志位,是否进1
for (int i = a.size() - 1; i >= 0; --i)
{
int num = a[i] - '0' + b[i] - '0' + count; //ACSII转int
a[i] = num % 2 + '0'; //int转ACSII
count = num / 2;
}
//判断最左端是否进1
if (count == 1)
a = '1' + a;
return a;
}
测试用例
示例 1:
输入: a = “11”, b = “1”
输出: “100”
示例 2:
输入: a = “1010”, b = “1011”
输出: “10101”
示例 2:
输入: a = “10100000100100110110010000010101111011011001101110111111111101000000101111001110001111100001101”, b = “110101001011101110001111100110001010100001101011101010000011011011001011101111001100000011011110011”
输出: “110111101100010011000101110110100000011101000101011001000011011000001100011110011010010011000000000”